5 raons per les quals no hauríeu de confiar en ChatGPT per obtenir assessorament mèdic

5 raons per les quals no hauríeu de confiar en ChatGPT per obtenir assessorament mèdic
Lectors com tu ajuden a donar suport a MUO. Quan feu una compra mitjançant enllaços al nostre lloc, podem guanyar una comissió d'afiliats. Llegeix més.

ChatGPT, un chatbot d'intel·ligència artificial (IA) desenvolupat per OpenAI, s'ha convertit en una eina tot en un per respondre a moltes preguntes senzilles i difícils, incloses les sol·licituds d'assessorament mèdic. Pot respondre preguntes mèdiques i superar l'examen de llicència mèdica dels Estats Units (USMLE), però no pot substituir una cita amb un metge de l'hospital.





MAKEUSEO VÍDEO DEL DIA DESPLACEU PER CONTINUAR AMB EL CONTINGUT

A mesura que ChatGPT avança, té el potencial de transformar completament el sector sanitari. Quan s'integra amb els sistemes de salut, pot millorar l'accés dels pacients a l'atenció i augmentar l'eficiència laboral dels metges. Tanmateix, com que es basa en IA, hi ha diverses preocupacions sobre els seus perills potencials.





1. ChatGPT té coneixements limitats

  De porc a cor

ChatGPT no ho sap tot. Segons OpenAI, ChatGPT té un coneixement limitat, sobretot pel que fa al que va passar després del setembre de 2021.





ChatGPT no té accés directe als motors de cerca ni a Internet. Es va entrenar utilitzant una gran quantitat de dades de text de nombroses fonts, inclosos llibres, llocs web i altres textos. No 'sa' les dades que està lliurant. En canvi, ChatGPT utilitza el text que ha llegit per crear prediccions sobre les paraules a utilitzar i en quin ordre.

Per tant, no pot rebre notícies actuals sobre desenvolupaments en camps mèdics. Sí, ChatGPT desconeix el trasplantament de cor de porc a humà o qualsevol altre avenç recent en ciència mèdica.



reenvia el correu des de Outlook a Gmail

2. ChatGPT pot produir informació incorrecta

ChatGPT pot respondre les preguntes que feu, però les respostes poden ser inexactes o esbiaixades. Segons a PLoS Salut Digital estudi, ChatGPT es va realitzar amb almenys un 50% de precisió en tots els exàmens USMLE. I tot i que va superar el llindar de superació del 60% en alguns aspectes, encara hi ha la possibilitat d'error.

A més, no tota la informació utilitzada per entrenar ChatGPT és autèntica. Les respostes basades en informació no verificada o potencialment esbiaixada poden ser incorrectes o no actualitzades. En el món de la medicina, la informació inexacta fins i tot pot costar una vida.





Com que ChatGPT no pot investigar ni verificar material de manera independent, no pot diferenciar entre realitat i ficció. Revistes mèdiques respectades, inclosa el Journal of the American Medical Association (JAMA), han establert regulacions estrictes que només els humans poden escriure estudis científics publicats a la revista. Com a resultat, hauríeu de comprovar constantment les respostes de ChatGPT .

3. ChatGPT no t'examina físicament

Els diagnòstics mèdics no depenen únicament dels símptomes. Els metges poden obtenir informació sobre el patró i la gravetat d'una malaltia mitjançant l'examen físic d'un pacient. Per tal de diagnosticar els pacients, els metges actuals utilitzen tant les tecnologies mèdiques com els cinc sentits.





ChatGPT no pot realitzar una revisió virtual completa ni tan sols un examen físic; només pot respondre als símptomes que proporcioneu com a missatges. Per a la seguretat i l'atenció del pacient, els errors en l'exploració física, o ignorar completament l'examen físic, poden ser perjudicials. Com que ChatGPT no t'ha examinat físicament, oferirà un diagnòstic incorrecte.

4. ChatGPT pot proporcionar informació falsa

  Resposta falsa de ChatGPT

Un estudi recent de la Facultat de Medicina de la Universitat de Maryland segons els consells de ChatGPT per al cribratge del càncer de mama, van trobar els resultats següents:

'Hem vist en la nostra experiència que ChatGPT de vegades crea articles de revistes falsos o consorcis de salut per donar suport a les seves afirmacions'. —Paul Yi M.D., professor adjunt de radiologia diagnòstica i medicina nuclear a la UMSOM

Com a part de les nostres proves de ChatGPT, vam demanar una llista de llibres de no ficció que tractessin el tema de la ment subconscient. Com a resultat, ChatGPT va produir un llibre fals titulat 'El poder de la ment inconsciente' del Dr. Gustav Kuhn.

Quan vam preguntar pel llibre, ens va respondre que era un llibre 'hipotètic' que va crear. ChatGPT no us dirà si un article de revista o llibre és fals si no consulteu més.

5. ChatGPT és només un model de llenguatge d'IA

  ChatGPT Medical

Els models de llenguatge funcionen memoritzant i generalitzant text en lloc d'examinar o estudiar l'estat d'un pacient. Tot i generar respostes que coincideixen amb els estàndards humans en termes de llenguatge i gramàtica, ChatGPT encara conté una sèrie de problemes , com altres robots d'IA.

ChatGPT no és un reemplaçament del vostre metge

Els metges humans sempre seran necessaris per prendre la decisió final de les decisions sanitàries. ChatGPT sol aconsellar parlar amb un metge amb llicència quan demaneu assessorament mèdic.

Windows 10 connectat però sense internet

Les eines impulsades per intel·ligència artificial com ChatGPT es poden utilitzar per programar cites amb el metge, ajudar els pacients a rebre tractaments i mantenir la seva informació de salut. Però no pot substituir l'experiència i l'empatia d'un metge.

No hauríeu de confiar en una eina basada en IA per diagnosticar o tractar la vostra salut, ja sigui física o mental.