Què és l'al·lucinació d'IA i com la detectes?

Què és l'al·lucinació d'IA i com la detectes?
Lectors com tu ajuden a donar suport a MUO. Quan feu una compra mitjançant enllaços al nostre lloc, podem guanyar una comissió d'afiliats. Llegeix més.

Les al·lucinacions de la Intel·ligència Artificial (IA) sona desconcertant. Probablement estàs pensant: 'L'al·lucinació no és un fenomen humà?' Bé, sí, solia ser un fenomen exclusivament humà fins que la IA va començar a mostrar característiques humanes com el reconeixement facial, l'autoaprenentatge i el reconeixement de la parla.





MAKEUSEO VÍDEO DEL DIA DESPLACEU PER CONTINUAR AMB EL CONTINGUT

Malauradament, la IA va adquirir alguns atributs negatius, incloses les al·lucinacions. Aleshores, l'al·lucinació de la IA és similar al tipus d'al·lucinació que experimenten els humans?





Què és l'al·lucinació d'IA?

L'al·lucinació de la intel·ligència artificial es produeix quan un model d'IA genera sortides diferents del que s'espera. Tingueu en compte que alguns models d'IA estan entrenats per generar intencionadament sortides no relacionades amb cap entrada (dades) del món real.





Per exemple, principals generadors de text a art d'IA , com DALL-E 2, poden generar de manera creativa imatges noves que podem etiquetar com 'al·lucinacions' ja que no es basen en dades del món real.

Al·lucinació d'IA en grans models de processament del llenguatge

Considerem com seria l'al·lucinació d'IA en un gran model de processament del llenguatge com ara ChatGPT. Una al·lucinació de ChatGPT donaria com a resultat que el bot us proporcionés un fet incorrecte amb alguna afirmació, de manera que, naturalment, prendreu aquests fets com a veritat.



En termes senzills, es tracta de declaracions inventades pel chatbot d'intel·ligència artificial. Aquí teniu un exemple:

  ChatGPT's response to where Elon Musk's house is located

En més consulta, ChatGPT va aparèixer amb això:





  Un ChatGPT demana més consulta on Elon Musk's factory is at in brazil

Al·lucinació d'IA en visió per ordinador

Considerem un altre camp de la IA que pot experimentar al·lucinacions d'IA: Visió per ordinador . El qüestionari següent mostra un muntatge 4x4 amb dues entitats que s'assemblen molt. Les imatges són una barreja de patates fregides a la barbacoa i fulles.

El repte és seleccionar les patates fregides sense colpejar cap fulla del muntatge. Aquesta imatge pot semblar complicada per a un ordinador i pot ser que no pugui diferenciar entre les patates fregides i les fulles de barbacoa.





  Un muntatge 4x4 de patates fregides i fulles de barbacoa

Aquí teniu un altre muntatge amb una barreja d'imatges de caniche i panets de fil de porc. Molt probablement un ordinador seria incapaç de diferenciar-los, per tant barrejar les imatges.

  Un muntatge 4x4 de caniche i panet de fil de porc

Per què es produeix l'al·lucinació de la IA?

L'al·lucinació d'IA es pot produir a causa d'exemples adversaris: dades d'entrada que enganyen una aplicació d'IA perquè les classifiqui incorrectament. Per exemple, quan entrenen aplicacions d'IA, els desenvolupadors utilitzen dades (imatge, text o altres); si les dades es modifiquen o es distorsionen, l'aplicació interpreta l'entrada de manera diferent, donant una sortida incorrecta.

En canvi, un humà encara pot reconèixer i identificar les dades amb precisió malgrat les distorsions. Podem etiquetar-ho com a sentit comú: un atribut humà que la IA encara no posseeix. Mira com s'enganya la IA amb exemples adversaris en aquest vídeo:

Pel que fa als grans models basats en el llenguatge com ara ChatGPT i les seves alternatives , les al·lucinacions poden sorgir per una descodificació imprecisa del transformador (model d'aprenentatge automàtic).

En IA, un transformador és un model d'aprenentatge profund que utilitza l'autoatenció (relacions semàntiques entre paraules d'una frase) per produir un text similar al que escriuria un ésser humà mitjançant una seqüència de codificador-descodificador (entrada-sortida).

Així, els transformadors, un model d'aprenentatge automàtic semi-supervisat, poden generar un nou cos de text (sortida) a partir del gran corpus de dades de text utilitzats en el seu entrenament (entrada). Ho fa predint la següent paraula d'una sèrie basada en les paraules anteriors.

Pel que fa a les al·lucinacions, si s'entrenava un model lingüístic amb dades i recursos insuficients i inexactes, s'espera que la sortida sigui inventada i inexacte. El model lingüístic pot generar una història o una narració sense inconsistències lògiques o connexions poc clares.

A l'exemple següent, se li va demanar a ChatGPT que donés una paraula semblant a 'revolta' i comença amb una 'b'. Aquí teniu la seva resposta:

  Captura de pantalla de ChatGPT donant respostes incorrectes a una pregunta

En investigar més, va continuar donant respostes equivocades, amb un alt nivell de confiança.

  Captura de pantalla de ChatGPT donant diverses respostes incorrectes a una sol·licitud

Aleshores, per què ChatGPT no pot donar una resposta precisa a aquestes indicacions?

Pot ser que el model d'idioma no estigui equipat per manejar indicacions més aviat complexes com aquestes o que no pugui interpretar la indicació amb precisió, ignorant la indicació en donar una paraula similar amb un alfabet específic.

Com detecteu les al·lucinacions d'IA?

Ara és evident que les aplicacions d'IA tenen el potencial d'al·lucinar: generar respostes d'una altra manera a partir del resultat esperat (fet o veritat) sense cap intenció maliciosa. I detectar i reconèixer les al·lucinacions d'IA depèn dels usuaris d'aquestes aplicacions.

A continuació, es mostren algunes maneres de detectar al·lucinacions d'IA mentre s'utilitzen aplicacions d'IA habituals:

1. Grans models de processament del llenguatge

  Imatge que mostra Bing Chat i ChatGPT en senyals de fletxa

Encara que rar, si observeu un error gramatical en el contingut produït per un gran model de processament, com ara ChatGPT, això hauria d'aixecar una cella i fer-vos sospitar d'una al·lucinació. De la mateixa manera, quan el contingut generat en text no sona lògic, no es correlaciona amb el context donat o no coincideix amb les dades d'entrada, hauríeu de sospitar d'una al·lucinació.

Utilitzar el judici humà o el sentit comú pot ajudar a detectar al·lucinacions, ja que els humans poden identificar fàcilment quan un text no té sentit o segueix la realitat.

2. Visió per ordinador

  Imatge d'un circuit i un cap humà

Com a branca de la intel·ligència artificial, l'aprenentatge automàtic i la informàtica, la visió per ordinador permet als ordinadors reconèixer i processar imatges com els ulls humans. Utilitzant xarxes neuronals convolucionals , confien en la increïble quantitat de dades visuals utilitzades en la seva formació.

Una desviació dels patrons de les dades visuals utilitzades en l'entrenament donarà lloc a al·lucinacions. Per exemple, si un ordinador no estava entrenat amb imatges d'una pilota de tennis, podria identificar-la com una taronja verda. O si un ordinador reconeix un cavall al costat d'una estàtua humana com un cavall al costat d'un humà real, s'ha produït una al·lucinació d'IA.

Com puc reduir un fitxer JPEG

Així doncs, per detectar una al·lucinació de visió per ordinador, compareu la sortida generada amb el que s'espera que vegi un humà [normal].

3. Cotxes autònoms

  Ford Blue Cruise 2
Crèdit d'imatge: Ford

Gràcies a la IA, els cotxes autònoms s'estan infiltrant gradualment al mercat de l'automòbil. Pioners com Tesla Autopilot i BlueCruise de Ford han estat defensant l'escena dels cotxes autònoms. Podeu comprovar-ho com i què veu el pilot automàtic de Tesla per entendre una mica com la IA impulsa els cotxes autònoms.

Si teniu un d'aquests cotxes, voldríeu saber si el vostre cotxe AI està al·lucinant. Un signe serà si el vostre vehicle sembla desviar-se dels seus patrons de comportament normals durant la conducció. Per exemple, si el vehicle frena o es desvia de sobte sense cap raó òbvia, és possible que el vostre vehicle d'IA estigui al·lucinant.

Els sistemes d'IA també poden al·lucinar

Els humans i els models d'IA experimenten les al·lucinacions de manera diferent. Quan es tracta d'IA, les al·lucinacions es refereixen a sortides errònies que es troben a milles de distància de la realitat o que no tenen sentit en el context de la indicació donada. Per exemple, un chatbot d'IA pot donar una resposta incorrecta gramaticalment o lògicament o identificar malament un objecte a causa del soroll o d'altres factors estructurals.

Les al·lucinacions de la IA no són el resultat d'una ment conscient o subconscient, com es pot observar en els humans. Més aviat, resulta de la inadequació o la insuficiència de les dades utilitzades en l'entrenament i la programació del sistema d'IA.