No us deixeu enganyar: com detectar un robot rus a les xarxes socials

No us deixeu enganyar: com detectar un robot rus a les xarxes socials

Què tan segur teniu que la persona amb qui 'debateu' apassionadament en línia sigui una persona real i que respiri? Com podeu saber si són un defensor més apassionat de qualsevol tema i no algú amb el suport del govern (o d’altres)?





No és fàcil detectar robots russos o pagaments pagats. Tanmateix, cada cop és més important a mesura que les acusacions d’estats-nació que s’involucren en assumptes aliens continuen girant. Es poden detectar? Això és el que heu de saber.





Bots vs. Shills

Comencem per diferenciar bots i shills.





la configuració d'alimentació de Windows 10 no funciona

Bot: Un bot és un fals compte de xarxes socials sota el control d’una organització o govern que vol influir en la comunitat en línia. Per exemple, un bot de Twitter ha configurat per retuitejar determinats hashtags i frases en volums tals que amplifica el tema específic. Un altre exemple són els bots de Reddit que rebutgen opinions que no estan d'acord amb l'opinió del controlador de bot (mentre que valoren els que estan d'acord). Els robots requereixen volum per tenir èxit en determinades plataformes, mentre que en altres ocasions només uns pocs poden començar a configurar la direcció d’una conversa. I tothom pot creeu un bot de xarxes socials mitjançant Python .

Shill: Una xília és diferent. Els shills són persones reals que participen activament en la formació de debats i opinions en línia (en aquest cas), mentre reben pagaments a canvi de la seva presència. Shills promou empreses, governs, personatges públics i molt més, amb finalitats de lucre personal, essencialment dedicades a la propaganda.



Depenent de l’organització o el govern, els shills poden funcionar conjuntament amb grans xarxes de bot per crear moviments vocals en línia intensos. I, tot i que els esforços combinats de simulacres i robots configuren l'opinió en línia, aquests esforços estan afectant cada vegada més que els usuaris de xarxes socials.

La pràctica també es coneix com astroturfing , mitjançant el qual les organitzacions i els governs organitzen la conversa a través de membres del públic 'habituals'.





Bots russos i shills

Els robots i els shills russos van dominar les converses de cara a les eleccions presidencials nord-americanes del 2016. Els comentaristes i els crítics van dedicar una gran quantitat de temps d'antena i columnes discutint sobre el paper dels robots i els simulacres amb suport rus en influir en la discussió sobre certs temes.

De fet, Robert Mueller, l’advocat especial que investiga les interferències en les eleccions presidencials, va acusar recentment a 13 russos amb seu als Estats Units com a part de la presumpta màquina de propaganda amb suport rus, Internet Research Agency (IRA).





Les denúncies d’influència són de gran abast. Van des de la simple creació d’identitats sonores nord-americanes en línia, fins a robar les identitats de ciutadans nord-americans, fins a atraure activistes minoritaris i els anomenats 'guerrers de la justícia social', fins a crear grups d’Instagram com 'Woke Blacks' per influir en els vots de les minories. I també hi ha molts altres exemples.

Les xarxes socials són una de les principals eines d'influència. Les plataformes saben que també hi ha un problema. Al gener de 2018, Twitter va dir que enviava per correu electrònic a 677.775 persones als Estats Units que feien tuits sobre el contingut de l'IRA. Al mateix temps que es disculpa, Twitter purga els comptes de bot, cosa que ha provocat que l'etiqueta #twitterlockout evolucioni entre els usuaris de Twitter predominantment conservadors.

I per a tots els crits de joc brut i d’orientació injusta, hi ha proves que 'els conservadors van retuitejar els trolls russos unes 31 vegades més sovint que els liberals i van produir 36 vegades més tuits'.

A més, Twitter manté que la seva purga de bot és 'apolítica' i que compleixen les regles de tot el lloc 'sense parcialitat política'.

Això no vol dir que els robots, els shills i l’astroturfisme siguin l’única competència de les figures conservadores.

Des del 2007, els funcionaris de la campanya de Clinton augmentaven de forma anònima llocs pro-Hilary, mentre que durant els debats presidencials del 2016, la campanya de Clinton va ser objecte de centenars de milers de tweets de bot automatitzats ( encara que significativament menys que Donald Trump ).

No tots els robots

Twitter i altres plataformes de xarxes socials no estan afectades pels robots, ja que algunes publicacions us faran creure. Podem desglossar la interacció de l’etiqueta de bot de Twitter per entendre com els seus patrocinadors intenten influir en la conversa.

El Computational Propaganda Project (CCP), patrocinat per la Universitat d’Oxford, examina de prop aquestes interaccions. El La taula següent il·lustra [PDF] la diferència en l’automatització entre les interaccions amb els hashtags pro-Trump o pro-Hilary, així com el percentatge global de tuits no automatitzats, entre l’1 i el 9 de novembre de 2016:

El PCC defineix una alta automatització com a 'comptes que es publiquen almenys 50 vegades al dia' mitjançant almenys un dels hashtags específics de les eleccions. L'estudi considera que qualsevol cosa per sota d'aquest llindar és una baixa automatització, és a dir, una persona real. La taula mostra un percentatge molt superior d’automatització de baix nivell, cosa que indica que hi ha un nombre molt més elevat d’usuaris habituals que interactuen.

L'estudi fa notar que alguns usuaris humans són inevitablement inclosos en el suport d'alta automatització. També assenyala que els comptes que demostren una alta automatització també utilitzen molt poques vegades els termes del clúster Mixt Hashtag Cluster (combinacions de barres Trump-Clinton a causa del gran volum de retuits).

Mai no coneixerem realment la imatge completa de quants robots estan treballant en cap plataforma de xarxes socials. Estimacions recents de la investigació [PDF] que els robots automatitzats representen gairebé el 15 per cent de tots els usuaris de Twitter, cosa que supera molt el total 40 milions de comptes de bot individuals .

Protesta del Centre Da'wah

Un exemple excel·lent d’influència directa russa és la protesta del Houston Da’wah Center del 2016.

El grup de Facebook 'Heart of Texas' va publicar un anunci que buscava simpatitzants per assistir a una protesta 'per aturar la islamització de Texas'. La protesta es va fixar per al migdia del 21 de maig, reunida al centre Da'wah. Al mateix temps, un altre grup, els anomenats 'Musulmans Units d'Amèrica', organitzaven una contraprotesta al mateix temps i al mateix lloc.

Els dos grups es van reunir al centre i, previsiblement, 'les interaccions entre els dos grups van acabar escalant-se fins a la confrontació i els atacs verbals'.

pel·lícules de terror gratuïtes en línia sense descarregar

Aleshores, cap dels manifestants es va adonar que el seu grup respectiu no era real. Això es per dir; els grups eren la construcció d'una 'granja de trols' recolzada per Rússia que existeix únicament per manipular la tensió política, racial i religiosa als EUA.

Com detectar un bot a les xarxes socials

No sempre és fàcil reconèixer robots i simulacions a les xarxes socials. Per què? Perquè d’una altra manera més la gent s’adonaria del que passava.

No m’equivoqueu; tots interactuem amb robots i xills, és la naturalesa mateixa de les xarxes socials el 2018. Els operaris reben milers de dòlars al mes per influir subtilment (i de vegades amb més descarada) en la conversa.

Tanmateix, hi ha alguns consells per detectar els robots:

  1. El compte només torna a publicar / retuits, sense fer mai publicacions pròpies, enviant la mateixa resposta a altres persones.
  2. Comptes que només publiquen / tornen a publicar comentaris fets per diversos comptes similars (alguns dels quals també són probablement bots).
  3. Alguns comptes es publiquen de manera ràpida (probablement automàticament) en resposta a 'activar' temes més ràpidament que humanament.
  4. Cicles humans. Les persones reals tendeixen a publicar en ràfegues, que tracten diferents temes, a més de tenir temps d'inactivitat reconeixibles per als cicles dia / nit.
  5. Imatges de perfil predeterminades. Per exemple, un perfil de Facebook amb la imatge d’un home o una dona o un perfil de Twitter amb la imatge predeterminada de l’ou.
  6. Perfils que són prolífics al voltant de grans esdeveniments (eleccions, escàndols, atacs terroristes), però que romanen inactius en altres moments. Les properes eleccions a mig termini del 2018 faran que es reactiven una sèrie de comptes de bot.

Altres aspectes que cal tenir en compte són els vots negatius sistèmics automàtics en llocs com Reddit. Els robots recullen el títol d’una presentació i immediatament comencen a votar negativament els comentaris que no estan d’acord amb la seva programació. (La votació a la baixa amaga els comentaris i les respostes d'altres usuaris i és una manera fàcil d'obstruir les opinions contràries.)

Com detectar un xit a les xarxes socials

Identificar pagaments pagats és més difícil, ja que la responsabilitat del compte és mantenir un aspecte normal d’usuari de xarxes socials. Les publicacions que promocionin un tema determinat o que configurin la conversa en línia poden aparèixer entre els punts de discussió mundans habituals per no crear sospites.

Algunes tàctiques habituals inclouen:

  • Canviar la narrativa d’un tema candent cap a una cosa que promogui l’agenda de qui va pagar el shill
  • Atacar constantment alguna cosa que no formava part de la conversa inicial (de vegades anomenada 'whataboutisme', en què un shill argumenta utilitzant termes com 'però què passa amb quan X va fer Y')

Una altra tàctica de detectar és el cicle humà. Les persones habituals han de dormir, menjar, beure, etc. Si un sol compte aconsegueix publicar en una única agenda contínuament durant períodes de 24 hores, és probable que hi hagi alguna cosa en marxa.

Però els 'molt bons' treballen molt. En lloc de simplement atacar i contradir l'opinió i intentar donar forma a la discussió, lentament es faran amics i s'infiltraran en un grup abans de començar a treballar.

com combinar fulls de treball a Excel

Es pot aturar els robots russos?

Malauradament, a part d’informar de comptes sospitosos, hi ha poques accions directes a fer contra els comptes shill o bot. Com es diu, no alimenteu els trolls.

Les eleccions a mitjà termini del 2018 ja estan fermament a l’horitzó (comproveu el biaix polític de qualsevol lloc en el període previ). Tot i que l’impacte dels comptes shill i bot potser és més gran que mai, ara en sabeu més sobre com detectar certs tipus de comportament.

Tanmateix, Twitter no és tot bots i trolls. Les xarxes socials poden tenir un impacte positiu al món.

Crèdit de la imatge: raptorcaptor / Depositphotos

Compartir Compartir Tweet Correu electrònic Val la pena actualitzar-lo a Windows 11?

Windows s’ha redissenyat. Però, n’hi ha prou per convèncer-vos de canviar de Windows 10 a Windows 11?

Llegiu a continuació
Temes relacionats
  • social Media
  • Seguretat
  • Política
  • Bots de xarxes socials
Sobre l'autor Gavin Phillips(945 articles publicats)

Gavin és l'editor júnior de Windows and Technology Explained, col·laborador habitual del Podcast Really Useful i revisor de productes habitual. Té un BA (Hons) Contemporary Writing with Digital Art Practices saquejat des dels turons de Devon, així com més d’una dècada d’experiència en escriptura professional. Li agrada una gran quantitat de te, jocs de taula i futbol.

Més de Gavin Phillips

Subscriu-te al nostre butlletí

Uniu-vos al nostre butlletí per obtenir consells tècnics, ressenyes, llibres electrònics gratuïts i ofertes exclusives.

Feu clic aquí per subscriure-us