• Buscar
           

¿QUIÉN TOMA TUS DECISIONES?

La información que casi todos regalamos al mundo digital es la base de sustento para manipulaciones de una gran sofisticación que mejoran día tras día. Se pierde privacidad, pero ante todo se devalúa la democracia y se ensanchan las grietas.

A nadie le gusta sentirse manipulable. Si bien los estudios de comunicación del último siglo demuestran el poder y los límites de los grandes medios de comunicación para amplificar, silenciar o retorcer un poco lo que ocurre en un país o en el mundo, el uso de redes sociales reclama nuevas explicaciones.

Larry Page y Serguéi Brin, los creadores de Google, lanzaron en 1998 un revolucionario algoritmo capaz de facilitar las búsquedas en internet. Esta fórmula matemática tomaba información previa sobre el usuario, como su geolocalización, qué habían elegido personas similares y muchos (pero muchos) datos más para responder el pedido de la manera más precisa posible. Este tipo de segmentación, a su vez, permitió ubicar publicidad específica para ese perfil: de manera automatizada, los algoritmos probaban millones de veces por día qué tipo de personas tenían más posibilidades de hacer clic en una publicidad. Con ese exitoso modelo como norte, muchas plataformas transformaron el mundo en un laboratorio donde testear distintos tipos de colores, fotos, tipografías, temas, horarios, etcétera para analizar qué resulta más efectivo para generar una venta. En un televisor, todos vemos lo mismo; pero en una pantalla, las redes sociales pueden exhibir algo distinto a cada persona.

Obviamente, este tipo de mensajes hipersegmentados por algoritmos puede utilizarse por igual para vender un champú o un candidato a presidente. Uno de los primeros en experimentar con esta tecnología a nivel masivo fue Barack Obama en su campaña de 2008. Su equipo detectó a aquellos votantes de estados clave que no se habían empadronado pero que, por su perfil, muy probablemente lo harían por el candidato demócrata. Así fue que les enviaron mensajes específicos: promesas de desarme para pacifistas, de energías renovables para ecologistas, etcétera. De los 3,5 millones de personas a las que enviaron mensajes, al menos un millón se empadronó.

LA CAMPAÑA DE TRUMP

El método fue potenciado a niveles extremos por Cambridge Analytica, una filial de la empresa SCL Group, durante la campaña de Donald Trump en 2016. La empresa realizó un perfil psicológico que medía los niveles de ansiedad, seguridad, etcétera de cada votante. El test de personalidad, conocido como Ocean, se obtiene del comportamiento de las personas en las redes: a quién escribe, sobre qué, en qué horarios, cómo responde a distintos mensajes, de qué habla en privado… Todo suma para establecer correlaciones. Por ejemplo, un muy buen indicador de la personalidad y el nivel educativo de un individuo lo dan sus gustos musicales.

Con esa información, la empresa segmentaba los mensajes de acuerdo con cada persona, incentivándola a votar o no hacerlo, como hicieron sobre todo con la comunidad afroamericana (en algunos barrios el voto negro por los demócratas fue mucho menor que en las elecciones anteriores, pero resulta difícil medir qué influyó más). La actividad de Cambridge Analytica se hizo conocida tras las elecciones de los EE.UU., sobre todo cuando se supo que buena parte de los datos provenían de Facebook, pero no como resultado de un “hackeo”, sino gracias a las funcionalidades de la plataforma. Así se mapeó la personalidad de ochenta y cinco millones de personas. Este tipo de metodología se combinó con otras herramientas, como las noticias falsas, los memes, las operaciones con medios de comunicación masiva e, incluso, con campañas de odio hacia quien se ponga en el camino.

Si bien Cambridge Analytica tuvo que cerrar luego del escándalo, la metodología se hizo conocida. Constantemente se publican análisis de comportamiento en redes que muestran cómo un político puede aumentar repentinamente su cantidad de seguidores en Twitter o cómo un personaje polémico recibe miles de retuits automáticamente. De esta manera, un mensaje se amplifica y genera la sensación de que “la gente piensa” algo determinado, y los medios redoblan la apuesta porque “se dice en las redes”. Más difícil resulta saber qué es lo que ocurre en Facebook, una plataforma muy opaca en su funcionamiento.

MANIPULACIÓN Y DESIGUALDAD

Una lectura ingenua podría creer que estas metodologías simplemente mejoran lo que siempre hizo el marketing electoral. Sin embargo, alcanza con una mirada sobre el mundo y sus “grietas” en expansión constante. Esto tiene que ver, obviamente, con cuestiones políticas (sobre todo por un sistema que aumenta constantemente la desigualdad), pero también con algoritmos capaces de explotar algo que, en realidad, ya se sabía: la mayoría de nuestras decisiones nos toman a nosotros y no nosotros a ellas. Incluso estudios neurocientíficos indican que muchas resoluciones se pueden conocer antes de que lleguen a nuestra conciencia; esta funciona más bien como un censor que puede contenerla si es peligrosa o tendrá consecuencias negativas.

Los algoritmos diseñados para captar la atención buscan atajos hacia nuestro cerebro de manera masiva y automatizada. Así aprenden que a nadie le gusta que lo contradigan: incorporar información que no encaja con lo que pensamos requiere más esfuerzo y nos obliga a rever nuestras ideas. El algoritmo debe mantenernos en nuestra zona de confort: si creemos en el calentamiento global, nos mostrará las noticias que lo avalan; si no, nos confirmará que se trata de un complot de ecologistas. Los algoritmos pueden prever nuestra reacción a los distintos tipos de artículos, fotos o posteos gracias a la información acumulada sobre nosotros y las reacciones de otras personas similares. Y si erran, aprenden a mejorar.

Los algoritmos saben que es mejor apelar a las emociones más básicas, las prerracionales, como puede ser la atracción sexual, la indignación, la sorpresa, la curiosidad… Las miles de noticias que nos cruzamos tituladas, por ejemplo, “Mirá la increíble respuesta de…” nos plantean un deseo difícil de controlar, sobre todo si el personaje involucrado es conocido. De esta y otras maneras se genera una realidad de diseño en la que cada quien confirma sus prejuicios a diario y le cuesta comprender cómo alguien puede pensar otra cosa. Las plataformas pocas veces ponen números a la eficacia que alcanzan sus métodos para generar comportamientos.

Las hijas de Cambridge Analytica siguen operando con una precisión cada vez mayor, ensanchando las grietas como efecto secundario de su búsqueda de la mayor eficiencia posible y alimentadas por los datos que generamos a diario en nuestras vidas cada vez más digitalizadas. Así aprenden, cada día, cómo manipularnos un poquito mejor aun a costa de socavar (aún más) el diálogo necesario para sostener no sólo la democracia, sino una convivencia social mínima.

Escrito por
Esteban Magnani
Ver todos los artículos
Invalid OAuth access token.
Escrito por Esteban Magnani
A %d blogueros les gusta esto: