El uso masivo de las redes sociales, los distintos algoritmos que se van construyendo a través de las interacciones en la red y las conductas predictivas que generan los usuarios son aprovechados comercial o políticamente por grandes empresas de tecnología que no responden a ninguna ley o marco regulatorio. Los países periféricos, como la Argentina, tienen poca o nula incidencia en la producción de tecnología. María Vanina Martínez es doctora en Ciencias de la Computación, investigadora adjunta del Conicet y profesora del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la UBA y reclama mayor regulación e integralidad a la hora de desarrollar tecnología.
“Los sistemas de recomendación, básicamente los algoritmos, que más se utilizan para cuestiones comerciales arrancan a partir de los años 2000 y 2005, cuando se comienza un desarrollo más fuerte en inteligencia artificial basada en datos, que nosotros conocemos como aprendizaje automático. Se combinan la proliferación de la gran cantidad de datos que generamos a partir de las plataformas sociales más la capacidad de computación que cada vez es mayor. Tenemos sistemas de hardware más potentes que pueden hacer muchas operaciones por segundo. La combinación de la disponibilidad de datos y la capacidad computacional hicieron que se empezara a ver la capacidad de estos algoritmos que ya existían desde hace 20 o 30 años. Las actividades más comunes son de clasificación, perfilación y predicción. En 2007, Netflix hizo un concurso para programadores que pudieran definir un algoritmo de recomendación de películas. A partir de ese momento se vino una especie de avalancha y empezaron a proliferar las aplicaciones. Con la salida de Android y iPhone se empieza a generar una cantidad de datos terrible, lo cual es de vuelta la fuente para poder hacer más inteligencia sobre ello. Es una bola continua que crece todos los días y va avanzando y encontrando nuevas oportunidades en la parte comercial”.
–¿Los usuarios tenemos algún tipo de control o estamos sujetos a lo que decidan las empresas que construyen estos algoritmos?
–En los últimos años hubo todo un movimiento mundial sobre estas cuestiones para tratar de entender qué es lo que están haciendo estos algoritmos. Hay varios casos en los que se ve claramente que ciertos derechos básicos fueron violados a partir del uso del sistema de inteligencia artificial, las plataformas sociales y los algoritmos de las plataformas. A medida que la sociedad va exigiendo ciertas cosas, esas plataformas se van modificando, nos van dando un grado de control mínimo o aparente, diría, más que nada como para que tengamos la impresión de que las decisiones las estamos tomando nosotros. Hay algunos parámetros que podemos “setear” y el usuario ve cómo rápidamente las respuestas del algoritmo cambian, sobre todo en los sistemas de recomendación o plataformas de compra en internet, como Mercado Libre, Amazon, incluso en Netflix. En cambio, en las plataformas sociales no se puede optar. De igual modo, no tenemos un control real sobre lo que vemos, sobre lo que nos muestran, las actividades a las cuales nos lleva el sistema.
–¿Las redes sociales son una forma de dar todavía más información?
–Sí, sin control, pero también sin entendimiento. Hace unos años, alrededor de 2012, Facebook empezó a poner las etiquetas en las fotos y el sistema nos preguntaba: “¿Esta foto es de esta persona?”, y nosotros le respondíamos sin entender lo que estaba sucediendo. Lo que estábamos haciendo era entrenar los algoritmos de inteligencia artificial que funcionan con reconocimiento facial dentro de una base de datos. Si nosotros le hacemos el trabajo de decirle quién es quién, qué rostro corresponde a cual persona o perfil, estamos entrenando esos algoritmos. Nosotros nunca nos enteramos de eso, que de alguna manera viola nuestra privacidad y nuestro derecho sobre nuestros datos personales. Viola incluso el derecho de las personas con las que tenemos relaciones en las redes sociales, porque no es que sólo estamos etiquetando fotos nuestras, sino las de nuestros amigos. No es sólo la pérdida de control de lo que vemos y lo que hacemos en las plataformas sociales sino que tampoco entendemos para qué van a ser usados los datos que libremente les damos, ya sean fotos, un clic o una opción que tildamos en el perfil. El dato no es sólo la foto y el texto, sino toda la actividad que nosotros realizamos cuando estamos en la plataforma.
–Además de la utilización comercial, también se ha usado para asuntos políticos, como reveló el escándalo de Cambridge Analytica. ¿Se avanzó algo en términos de derechos luego de eso?
–Desde el punto de vista efectivo, estamos igual. Lo que sí sucedió es que empezó a haber una concientización mayor y se empezó a discutir sobre estos temas. Espero que en el futuro no muy lejano esto lleve a que haya una concientización mayor sobre la necesidad de una regulación. Muchos de los movimientos que hoy se están impulsando a nivel mundial, más que una mayor regulación o fuertes marcos legales, proponen principios éticos y autorregulaciones por parte de las empresas que producen los sistemas. Pero si bien ha habido mucho movimiento, todas las empresas grandes de tecnología, como IBM, Facebook o Google, sólo generaron guías para la inteligencia artificial y para la protección de datos. Fomentan esta idea de hacernos responsables de la autorregulación. Ahí hay un tema político, no técnico, que nos deja en la discusión ética, en los valores, en la filosofía de la inteligencia artificial. No lleva a proponer acciones específicas, a que se definan marcos legales regulatorios para que estas cosas definitivamente no pasen, para que los sistemas se evalúen antes de ser implementados, antes de ser largados a la sociedad. No se evalúa qué impacto social e individual puede tener en la persona que lo usa, o si cuenta con las herramientas para saber en qué medida los sistemas cumplen con esos principios, o si hay un marco regulatorio a través del cual pueda establecer la cadena de responsabilidad para que efectivamente alguien se haga responsable cuando las cosas salgan mal. Falta mucho en ese entorno y nos quedamos en la discusión ética, que no está avanzando.
–Desde un país periférico como la Argentina, ¿qué capacidad de defensa tenemos ante desarrollos tecnológicos de los países centrales, donde las reglas las ponen empresas de tecnología gigantes?
–La alternativa sería que generemos nuestro propio sistema, pero ya llegamos tarde para eso y no tenemos la capacidad para hacerlo. La globalización tampoco te lo permite. China y Estados Unidos son los que desarrollan las tecnologías de plataformas sociales, de inteligencia artificial, los sistemas de recomendaciones. Hay alguna incidencia europea, pero es mínima. Entonces, países como los nuestros no pueden entrar en el mercado a ese nivel, lo único que nos queda es poder trabajar en marcos regulatorios eficientes. No es que todas estas compañías son malas y nos quieren hacer mal porque tienen intereses económicos. También hay desarrollo tecnológico que está mal usado o mal interpretado en el entorno en que se usa. Eso también es culpa de ellos por falta de educación, por falta de una mirada integral, por falta de voces multidisciplinarias al momento del diseño de las herramientas, lo que también podría estar incluido en un marco disciplinario que exija que se haga de esa manera.