3 Riscos i preocupacions de privadesa de Chatbot que hauríeu de conèixer

3 Riscos i preocupacions de privadesa de Chatbot que hauríeu de conèixer
Lectors com tu ajuden a donar suport a MUO. Quan feu una compra mitjançant enllaços al nostre lloc, podem guanyar una comissió d'afiliats. Llegeix més.   Un cadenat amb tecles del teclat escampades

Els chatbots fa anys que existeixen, però l'auge de grans models de llenguatge, com ara ChatGPT i Google Bard, ha donat una nova vida a la indústria dels chatbots.





Milions de persones utilitzen ara chatbots d'IA a tot el món, però hi ha alguns riscos i preocupacions importants per a la privadesa que cal tenir en compte si voleu provar una d'aquestes eines.





l'historial de google elimina tota la meva activitat

1. Recollida de dades

La majoria de la gent no utilitza els robots de xat només per saludar. Els chatbots moderns estan dissenyats per processar i respondre preguntes i sol·licituds complexes, i els usuaris sovint inclouen molta informació a les seves indicacions. Fins i tot si només esteu fent una pregunta senzilla, realment no voleu que vagi més enllà de la vostra conversa.





D'acord amb Secció de suport d'OpenAI , podeu suprimir els registres de xat de ChatGPT quan ho desitgeu, i aquests registres s'eliminaran permanentment dels sistemes d'OpenAI després de 30 dies. Tanmateix, l'empresa conservarà i revisarà determinats registres de xat si s'han marcat per contingut nociu o inadequat.

Un altre chatbot d'IA popular, Claude, també fa un seguiment de les vostres converses anteriors. Centre de suport d'Anthropic afirma que Claude fa un seguiment 'de les vostres indicacions i sortides al producte per oferir-vos una experiència de producte coherent al llarg del temps d'acord amb els vostres controls'. Podeu esborrar les vostres converses amb en Claude, de manera que s'oblidi del que heu estat parlant, però això no vol dir que Anthropic suprimirà immediatament els vostres registres dels seus sistemes.



Això, per descomptat, planteja la pregunta: es conserven les meves dades o no? ChatGPT o altres chatbots utilitzen les meves dades?

Però les preocupacions no s'aturen aquí.





Com aprèn ChatGPT?

Per tal de proporcionar informació, s'entrenen grans models lingüístics amb grans quantitats de dades. D'acord amb Enfocament científic , només ChatGPT-4 va rebre 300 mil milions de paraules d'informació durant el seu període d'entrenament. Això no està tret directament d'algunes enciclopèdies. Més aviat, els desenvolupadors de chatbots utilitzen massa d'informació d'Internet per entrenar els seus models. Això pot incloure dades de llibres, pel·lícules, articles, entrades de la Viquipèdia, publicacions de blocs, comentaris i fins i tot llocs de ressenyes.

Tingueu en compte que, depenent de la política de privadesa d'un desenvolupador de chatbot, és possible que algunes de les fonts esmentades no s'utilitzin en la formació.





Molts han criticat ChatGPT, afirmant que és un malson en termes de privadesa, això No es pot confiar en ChatGPT . Aleshores, per què és aquest el cas?

Aquí és on les coses es tornen una mica borroses. Si pregunteu directament a ChatGPT-3.5 si té accés a ressenyes de productes o comentaris d'articles, obtindreu un negatiu ferm. Com podeu veure a la captura de pantalla següent, GPT-3.5 afirma que no se li va donar accés als comentaris d'articles d'usuari ni a ressenyes de productes durant la seva formació.

  captura de pantalla de la conversa xatgpt-3.5

Més aviat, es va entrenar utilitzant 'una gamma diversa de textos d'Internet, inclosos llocs web, llibres, articles i altres materials escrits disponibles públicament fins al setembre de 2021'.

Però és el mateix cas per a GPT-4?

Quan vam preguntar a GPT-4, ens van dir que 'OpenAI no va utilitzar ressenyes específiques d'usuaris, dades personals o comentaris d'articles' durant el període de formació del chatbot. A més, GPT-4 ens va dir que les seves respostes es generen a partir de 'patrons de les dades en què es va formar, que consisteixen principalment en llibres, articles i altres textos d'Internet'.

Quan vam investigar més, GPT-4 va afirmar que cert contingut de les xarxes socials es podria incloure, de fet, a les seves dades de formació, però els creadors sempre romandran anònims. GPT-4 va declarar específicament que 'fins i tot si el contingut de plataformes com Reddit formava part de les dades de formació, [no] té accés a comentaris, publicacions o dades específiques que es puguin enllaçar a un usuari individual'.

Una altra part notable de la resposta de GPT-4 és la següent: 'OpenAI no ha enumerat explícitament totes les fonts de dades utilitzades'. Per descomptat, seria difícil per a OpenAI enumerar fonts per valor de 300.000 milions de paraules, però això deixa espai per a l'especulació.

En un Article Ars Technica , es va afirmar que ChatGPT recull 'informació personal obtinguda sense consentiment'. En el mateix article s'esmentava la integritat contextual, un concepte que es refereix a utilitzar només la informació d'algú en el context en què es va utilitzar inicialment. Si ChatGPT infringeix aquesta integritat contextual, les dades de les persones podrien estar en risc.

Un altre punt de preocupació aquí és el compliment d'OpenAI amb el Reglament General de Protecció de Dades (GDPR) . Es tracta d'una normativa aplicada per la Unió Europea per tal de protegir les dades dels ciutadans. Diversos països europeus, inclosos Itàlia i Polònia, han iniciat investigacions sobre ChatGPT a causa de la preocupació pel seu compliment GDPR. Durant un temps, ChatGPT va ser fins i tot prohibit a Itàlia per preocupacions de privadesa.

OpenAI ha amenaçat amb retirar-se de la UE en el passat a causa de les regulacions d'IA previstes, però des de llavors s'ha retractat.

ChatGPT pot ser el chatbot d'IA més gran d'avui, però els problemes de privadesa del chatbot no comencen ni acaben amb aquest proveïdor. Si utilitzeu un chatbot ombrívol amb una política de privadesa poc brillant, és possible que les vostres converses s'utilitzin malament o que s'utilitzi informació molt sensible a les seves dades d'entrenament.

2. Robatori de dades

Com qualsevol eina o plataforma en línia, els chatbots són vulnerables al cibercrim. Fins i tot si un chatbot va fer tot el possible per protegir els usuaris i les seves dades, sempre hi ha la possibilitat que un pirata informàtic intel·ligent aconsegueixi infiltrar-se en els seus sistemes interns.

Si un servei de chatbot determinat emmagatzemava la vostra informació sensible, com ara dades de pagament de la vostra subscripció premium, dades de contacte o similars, aquesta podria ser robada i explotada si es produís un ciberatac.

Això és especialment cert si utilitzeu un chatbot menys segur els desenvolupadors del qual no han invertit en una protecció de seguretat adequada. No només es podrien piratejar els sistemes interns de l'empresa, sinó que el vostre propi compte té la possibilitat de veure's compromès si no té alertes d'inici de sessió o una capa d'autenticació.

Ara que els chatbots d'IA són tan populars, els ciberdelinqüents s'han acudit de manera natural a utilitzar aquesta indústria per a les seves estafes. Els llocs web i els connectors falsos de ChatGPT han estat un problema important des que el chatbot d'OpenAI va arribar a la majoria a finals de 2022, amb persones que s'enamoren d'estafes i regalen informació personal sota l'aparença de legitimitat i confiança.

com crear un DVD d'arrencada

El març de 2023, MUO va informar sobre a falsa extensió de Chrome ChatGPT que roba els inicis de sessió de Facebook . El connector podria explotar una porta posterior de Facebook per piratejar comptes d'alt perfil i robar galetes d'usuari. Aquest és només un exemple de nombrosos serveis de ChatGPT falsos dissenyats per estafar víctimes desconegudes.

3. Infecció de programari maliciós

Si utilitzeu un chatbot ombrívol sense adonar-vos-en, és possible que trobeu que el chatbot us ofereix enllaços a llocs web maliciosos. Potser el chatbot us ha alertat d'un regal temptador o ha proporcionat una font per a una de les seves declaracions. Si els operadors del servei tenen intencions il·lícites, l'objectiu de la plataforma pot ser difondre programari maliciós i estafes mitjançant enllaços maliciosos.

Alternativament, els pirates informàtics poden comprometre un servei de chatbot legítim i utilitzar-lo per difondre programari maliciós. Si aquest bot de xat és molt gent, milers o fins i tot milions d'usuaris estaran exposats a aquest programari maliciós. Les aplicacions falses de ChatGPT fins i tot han estat a l'App Store d'Apple , així que el millor és trepitjar amb cura.

En general, mai no hauríeu de fer clic a cap enllaç que un chatbot ofereix abans executant-lo a través d'un lloc web de comprovació d'enllaços . Això pot semblar irritant, però sempre és millor assegurar-se que el lloc al qual se us dirigeix ​​no té un disseny maliciós.

A més, mai no hauríeu d'instal·lar cap connector i extensió de chatbot sense verificar primer la seva legitimitat. Feu una mica de recerca al voltant de l'aplicació per veure si s'ha revisat bé i també feu una cerca al desenvolupador de l'aplicació per veure si trobeu alguna cosa obscura.

Els chatbots no són impermeables als problemes de privadesa

Com la majoria de les eines en línia actuals, els chatbots han estat criticats repetidament pels seus possibles inconvenients de seguretat i privadesa. Tant si es tracta d'un proveïdor de chatbots que s'apropa a la seguretat dels usuaris o dels riscos continus d'atacs cibernètics i estafes, és fonamental que sàpigues què està recopilant el teu servei de chatbot i si utilitza les mesures de seguretat adequades.