Trolls, bots, sock puppets e deep fakes: unha guía para identificar a desinformación en liña

As operacións políticas para a manipulación do público preceden longamente a internet, pero a rede ofrece recursos novos para que falsidades e teorías conspirativas difúndanse máis e mellor que nunca
Publicado por o día 17/02/2020 na sección de Internet
Trolls, bots, sock puppets e deep fakes: unha guía para identificar a desinformación en liña

A maneira en que as manipulacións da información circulan en liña ten características tan específicas como os seus impactos potenciais, segundo viuse nas eleccións presidenciais estadounidenses de 2016. “Os investigadores que estudan a desinformación predín que será cada vez peor a medida que se achegue a votación presidencial deste ano”, advertiu unha guía de axénciaa AP sobre os distintos elementos que constitúen este fenómeno: deepfakes, trolls, bots, noticias falsas e demais ferramentas de engano público.

Información falsa vs. desinformación

As operacións políticas para a manipulación do público existen desde moito antes que a prensa impresa, pero internet trouxo un cambio cualitativo: as falsidades, as teorías conspirativas e as esaxeracións difúndense a máis velocidade que nunca antes.

A información falsa é calquera que, máis aló da súa intención, inclúe erros ou equívocos no que respecta a os feitos. A desinformación, por outra banda, tipicamente refírese a información falsa creada e difundida de maneira intencional aos fins de confundir ou enganar. Ambas as categorías abundan nas publicacións e os avisos políticos nas redes sociais. Poden ser noticias falsas ou vídeos retocados, como o que se viu o ano pasado sobre a presidenta da Cámara de Representantes, Nancy Pelosi: foi retardado para que soase coma se ela arrastrase as palabras.

Por estraño que soe, as falsidades difúndense máis rápida e facilmente que as noticias verdadeiras. Segundo os investigadores, isto podería deberse a que foron construídas para chamar a atención. Un estudo do Instituto de Tecnoloxía de Massachusetts (MIT) analizou máis de 126.000 noticias, verdadeiras e falsas que se tuitearon millóns de veces desde 2006 ata 2016. Descubriu que as noticias enganosas ou incorrectas movéronse a unha velocidade seis veces maior que as verdadeiras, e alcanzaron un público máis amplo.

Bots e contas híbridas

A infantería da guerra dixital está feita de bots: programas autónomos que poden administrar contas para difundir contidos sen participación humana. Moitos son inofensivos e a eles débense as fotos de mascotas que tanto gustan a case todo o mundo. Pero outros, deseñados ademais para que parezan usuarios reais, son moi distintos.

“Un estudo de investigadores da Universidade do Sur de California (USC) analizou tuits vinculados ás eleccións publicados en setembro e outubro de 2016, e achou que un de cada cinco fora enviado por un bot”, citou AP. Noutro traballo sobre o tema, o Pew Research Center concluíu en 2018 que as contas de bots foron responsables case dous terzos dos tuits que derivaron ao público cara a sitios populares.

Mentres que un usuario humano de Twitter adoita publicar algunhas veces ao día e sobre unha variedade de asuntos, os bots máis evidentes tuitean centos de veces, día e noite, e en xeral sobre un tema específico. Adoitan, ademais, retuitear contido en maior proporción que xerar mensaxes orixinais.

O informe de AP identificou tamén unha conta híbrida, “que combina a capacidade de traballo infatigable dun bot coa sutileza humana”: as contas cyborg, nas cales cada tanto unha persoa real asómase para responder a outros usuarios e subir contido orixinal, pero que polo demais pasan a maior parte do tempo en mans dun bot.

Son, desde logo, máis caras e requiren maior dedicación, pero tamén resultan máis eficaces. “Pódese obter moito dun bot, pero seica non cousas da mellor calidade”, dixo á axencia Emilio Ferrara, investigador de informática de USC, coautor do estudo sobre bots de Twitter. “O problema cos cyborgs é que son moito máis difíciles de detectar”.

Como se descobre un bot?

Pero tampouco un bot é sinxelo de detectar, mesmo para os mellores investigadores. “Temos 12 factores para identificar un bot, e se se dan sete ou oito podemos ter bastante confianza na detección”, dixo Graham Brookie, director do Laboratorio de Investigacións Dixitais Forenses de Atlantic Council, unha organización de Washington DC que estuda as conexións entre redes sociais, ciberseguridad e goberno.

Pero aínda eses métodos poden fallar: Brookie lembrou o caso dunha conta de Twitter de Brasil, que publicaba sen descanso, nunha ocasión a razón dun tweet por minuto, e mostraba outras características. “E con todo resultou ser unha avoíña”, dixo.

O predominio dos bots no océano das redes combinado coa dificultade de detectalos converteunos nunha especie de vilán dixital, ao momento que o termo se emprega como un insulto, moitas veces contra persoas. “Michael Watsey, un home de Nova Jersey de 43 anos que adoita tuitear o seu apoio ao presidente Donald Trump, contou que moitas veces a xente coa que discute en liña termina por chamalo ‘ bot ruso’”, ilustrou AP. “As acusacións fixeron que máis dunha vez Twitter suspendese a súa conta temporalmente, e el debeu verificar que é un ser humano para recuperala”.

Trolls e sock puppets

A palabra troll, que orixinalmente aludía aos seres da mitoloxía escandinava, úsase para chamar á xente que publica comentarios en liña para provocar a outros, ás veces pola súa propio gusto pero na maior parte das ocasións como parte dunha campaña coordinada.

Sock puppets, que na dimensión física describía aos monicreques de trapo, na internet é a denominación dunha falsa identidade que se utiliza con fins de engano, unha conta impostora. Aínda que moitas persoas utilizan contas anónimas para evitar identificarse, as contas de sock puppet úsanse case exclusivamente para atacar aos críticos ou montar campañas de auto promoción.

Vídeos falsos: deepfake vs. cheapfake

Coas capacidade de adulterar dixitalmente os vídeos comezaron a proliferar distintas formas de clips falsos. Os deepfakes créanse mediante intelixencia artificial ou aprendizaxe de máquinas para que pareza que sucedeu algo que en realidade nunca pasou. Considéranse unha ameaza emerxente, xa que as constantes melloras do software de edición fai posible que se poida producir vídeos cada vez máis realistas, como un do ex presidente Barack Obama que o mostrou dando un discurso que nunca pronunciou nun lugar no que xamais estivo.

“Son custosos e difíciles de producir, en especial para que resulten convincentes”, observou AP; ademais, as plataformas comezaron a dificultar a súa circulación. Facebook anunciou que prohibiría os deep fakes con excepción das sátiras. E desde marzo Twitter prohibirá os arquivos multimedia que fosen manipulados —vídeos, fotos e audio—, en especial cando poidan ameazar a seguridade física de alguén ou poidan provocar danos no mundo real. Segundo explicou a rede, “a actualización das regras acompaña os cambios dos comportamentos en liña”. Incluso o material que non sexa potencialmente daniño pero fose manipulado podería levar unha etiqueta de advertencia. E Youtube prohibe “os usos enganosos de arquivos multimedia manipulados” que poderían presentar perigos.

En cambio, os cheap fakes (tamén coñecidos como shallow fakes e dumb fakes) son vídeos adulterados con técnicas máis básicas, como retardalos ou aceleralos, ou cortalos e editalos noutra orde. Como exemplo, o informe ofreceu o vídeo que publicou o Partido Conservador de Gran Bretaña antes das eleccións de decembro, no que se vía a un rival do Partido Laborista vacilando ao responder unha pregunta sobre o Brexit.

Como son fáciles e baratos de facer, os cheap fakes poden resultar igual de perigosos que o seu parente máis sofisticado. “Os deep fakes vólvense máis realistas e máis fáciles de facer”, recoñeceu John Pavlik, profesor de xornalismo na Universidade de Rutgers que investiga o modo en que as tecnoloxías cambian os hábitos de comunicación. “Pero non é necesario ter un software especial para facer estes que son máis simples”.

Comentar noticia

Your email address will not be published.