Un repaso por las noticias de los últimos días exhibe que la inteligencia artificial llega a la astrología; que para historiadores y escritores surgieron nuevas herramientas de IA que amenazan la supervivencia de la civilización humana; que con la IA se puede hacer trabajos prácticos, diseñar páginas web o películas, operaciones de salud, leer radiografías; y que un nuevo estudio de la Universidad de Claremont (Estados Unidos) sostiene que la fusión de la inteligencia artificial con datos cerebrales podría revelar el secreto de un hit musical. Todo esto se suma a que semanas atrás, Geoffrey Hinton, uno de los “padres” de la IA, abandonó Google arrepentido de su trabajo por los riesgos de esa tecnología.
Las técnicas de IA que utilizamos hoy se conocen desde hace varias décadas. Pero recién desde hace diez años se dieron las condiciones para su desarrollo, con el crecimiento exponencial de la capacidad de procesamiento, almacenamiento, y generación de datos. Y todavía estamos en una etapa inicial.
El protagonista es ChatGPT, de OpenAI, descargado por millones de personas. Las siglas GPT aluden a Generar, Preentrenar y Transformar: cual red neuronal, el algoritmo aprende contexto siguiendo relaciones en datos secuenciales. Así hace traducciones, resúmenes, asiste en el diseño de fármacos, la comprensión de cadenas de genes o la detección de fraudes. Una de las funciones más usadas es la de desgrabar audios. Lo que hizo que saliera la versión de IA de WhatsApp: LuzIA. Hoy la inteligencia artificial se utiliza para procesos médicos, para decidir qué comer o comprar, e incluso en evaluaciones y tareas escolares.
Guillermo R. Simari, doctor en Ciencia de la Universidad de Washington y profesor emérito de la Universidad Nacional del Sur, donde encabeza el Laboratorio de Investigación y Desarrollo de Inteligencia Artificial (Lidia), sostiene que el actual cambio acelerado que otras tecnologías del pasado también provocaron (el lenguaje, la imprenta, las máquinas) “tiene una característica que las otras no tuvieron. Esas tecnologías del pasado dieron la oportunidad de adaptarse vía cambios en la educación (la Revolución Industrial, que comenzó a finales del siglo XVIII, dio lugar a la introducción de la educación formal). Ahora, la velocidad de los cambios no está ayudando a la aplicación de la misma estrategia. El verdadero desafío del presente es descubrir cómo educar a la humanidad para que pueda adaptarse”.
Reproductibilidad técnica
Simari explica que el problema del comportamiento que demuestran los sistemas LLMs (Large Language Models, o Grandes Modelos Lingüísticos, como el ChatGPT) se centra en que “sus respuestas no son confiables. El sistema es esencialmente una caja negra en la que no se puede observar los mecanismos por los que se construyen las respuestas, y esta característica representa un problema muy serio”.
A esto se suma la irresponsabilidad de las corporaciones tecnológicas, que ponen a disposición de cualquiera sistemas que están en etapa de desarrollo. “Básicamente, ha puesto a la población a trabajar gratuitamente para encontrar los problemas de los sistemas creados. Este es un problema ético profundo que no debería haber ocurrido”, describe Simari.
¿Y los beneficios? El experto asegura que se irán encontrando a medida que los sistemas se vuelvan confiables. Muchos resultados de IA ya están siendo aplicados desde hace años sin problemas, como el GPS y los generadores de voz a partir de texto.
Poco tiempo atrás, en Alemania, una persona ganó un concurso de fotografía. Luego se supo que la foto había sido creada con inteligencia artificial. El arte es uno de los rubros más atravesado por la IA. En la Agentina, una de las primeras organizaciones que se pronunció en contra fue la Asociación de Dibujantes de la Argentina (ADA), que el 8 de febrero rechazó el uso de aplicaciones desregularizadas de imágenes, como Midjourney.
También está la música. Desde un tema de Drake y The Weeknd generado por IA hasta una canción del último disco de Charly García (Random, de 2017) cantada con la voz del Charly de los años 80. Si vemos un cuadro hecho con IA, ¿nos podemos llegar a dar cuenta? Ricardo Rodríguez, docente del Departamento de Computación de la Facultad de Ciencias Exactas y Naturales de la Universidad de Buenos Aires (UBA), responde: “Conceptos como originalidad/plagio o creatividad van a cambiar significativamente”.
Peor es el terreno fangoso de la política, los medios y las redes. La combinación de fake news, inteligencia artificial y campaña electoral puede destapar una caja de resonancia con ecos aún no dimensionados. “Microsoft ofreció un sistema para las últimas elecciones de Estados Unidos para detectar fake news, pero no funcionó muy bien. Respecto de regulaciones, hay algunos intentos pero todavía no se sabe qué regular para después decidir cómo –resalta Rodríguez–. El problema de las fake news es uno de los desafíos más grandes que se tiene. Porque las tecnologías de IA, con el poco desarrollo que todavía tiene (respecto de su potencialidad), pueden generar estragos por su capacidad de manipulación política/social.”
“Sin lugar a dudas este es un problema serio –coincide Simari–. Va a ser difícil creer en lo que se lea o se vea. No nos olvidemos de que los trolls ahora van a tener un asistente para la creación de texto que hasta hace poco no estaba disponible y este texto va a ser desgraciadamente más respetable intelectualmente, haciéndolo más aceptable.”
La brecha tecnológica entre países centrales y periféricos se va a ampliar aún más. El uso de la tecnología de IA se está concentrando en unas pocas empresas y hoy casi no hay regulaciones para su desarrollo. No hay términos ni condiciones y no está definido algo tan básico como quién es responsable por los abusos o mal funcionamiento del sistema.
Semanas atrás, unos 1.100 investigadores y personalidades del sector tecnológico firmaron un petitorio a los laboratorios de IA para que “pausen” los avances hasta que exista un nivel de planificación y gestión sobre ella, que hoy no existe. Uno de los firmantes fue Elon Musk. Días después de la carta, anunció la creación de X.AI, su start-up de inteligencia artificial que competirá con ChatGPT.
Vivir para trabajar y trabajar para vivir
Según una encuesta de Bumeran, ocho de cada diez trabajadores y trabajadoras de la Argentina consideran que la IA va a impactar positivamente en su labor diaria. Sin embargo, el 69 por ciento tiene “miedo” de que pueda hacer su trabajo en un futuro, en reemplazo de sus tareas.
Rodríguez lo grafica de esta manera: “Muchísimas actividades profesionales van a desaparecer o cambiar drásticamente. Hoy un contrato, un testamento, y muchos documentos legales pueden ser redactados en forma automática usando IA. Seguramente eso podría permitir que el sistema jurídico en su conjunto pueda atender una mayor demanda a más bajo costo. Sin duda todo el sistema va a cambiar su dinámica”.
En un artículo publicado en Revista Anfibia, la docente Favia Costa, investigadora del Conicet y doctora en Ciencias Sociales, cita al inventor, escritor y empresario Ray Kurzweil –desde 2012 el director de ingeniería de Google para IA– y hace mención a la posibilidad de que la inteligencia artificial estrecha que conocemos hoy –que se especializa en una tarea limitada, como jugar al Go, hacer transacciones financieras u orientarnos en una ciudad– pase a ser una inteligencia artificial general (AGI): “Una inteligencia artificial que es al menos tan desarrollada intelectualmente como un ser humano, en muy diferentes ámbitos, y que puede establecer relaciones entre esos ámbitos. Y luego seguiría desarrollándose hasta derivar en una superinteligencia artificial, o ASI: una inteligencia artificial que es mucho más veloz y cualitativamente mucho más inteligente que cualquier humano, e incluso que la humanidad en su conjunto, en todos los ámbitos”.