El 2023 fue un punto de inflexión en la evolución de la inteligencia artificial (IA) y su papel en la sociedad. Ese año vio el surgimiento de la IA generativa, que llevó la tecnología de las sombras al centro del escenario en la imaginación del público.
Fue el año en que la administración de Joe Biden emitió una orden ejecutiva y la Unión Europea aprobó una ley destinada a regular la IA, unas medidas que quizás se describan como un intento de ‘frenar un caballo que ya está galopando’.
En este artículo, un panel de académicos de IA miran el 2024 y describen los problemas que probablemente enfrentarán los desarrolladores de IA, los reguladores y la gente común. Esperanzas y recomendaciones.
“Cuanto más entiendan las personas cómo funciona la IA, más empoderadas estarán”
2023 fue el año del revuelo por la IA. Independientemente de si la narrativa era que la IA iba a salvar el mundo o destruirlo, a menudo parecía como si las visiones de lo que la IA podría ser algún día abrumaran la realidad actual. Y aunque creo que anticipar daños futuros es crítico para superar la deuda ética en tecnología, dejarse llevar demasiado por la exageración corre el riesgo de crear una visión de la IA que parece más mágica que una tecnología que aún puede moldearse mediante elecciones explícitas. Pero tomar el control requiere una mejor comprensión de esa tecnología.
El robot humanoide con Inteligencia Artificial “Ameca” en la Cumbre Global AI for Good de la Unión Internacional de Telecomunicaciones (UIT) en Ginebra, el 5 de julio de 2023. La ONU ha convocado reuniones para tratar de trazar límites y lineamientos a la inteligencia artificial y aprovechar su potencial para el bien de la humanidad, a medida que el desarrollo de la tecnología avanza.
Uno de los principales debates sobre IA de 2023 giró en torno al papel de ChatGPT y chatbots similares en la educación. El año pasado por estas fechas, los titulares más relevantes se centraron en cómo los estudiantes podrían usarlo para hacer trampa y cómo los educadores luchaban para evitar que lo hicieran, de maneras que a menudo hacen más daño que bien.
Sin embargo, a medida que avanzaba el año, se reconoció que no enseñar a los estudiantes sobre la IA podría ponerlos en desventaja, y muchas escuelas revocaron sus prohibiciones. No creo que debamos renovar la educación para poner la IA en el centro de todo, pero si los estudiantes no aprenden cómo funciona la IA, no entenderán sus limitaciones y, por lo tanto, no entenderán cómo es útil y apropiado usarla y como no lo es.
Esto no es solo cierto para los estudiantes. Cuanto más entiendan las personas cómo funciona la IA, más empoderadas estarán para utilizarla y criticarla.
Así que mi predicción, o quizás mi esperanza, para 2024 es que habrá un gran impulso para aprender. En 1966, Joseph Weizenbaum, el creador del chatbot ELIZA, escribió que las máquinas son “a menudo suficientes para deslumbrar incluso al observador más experimentado”, pero que una vez que su “funcionamiento interno se explica en un lenguaje lo suficientemente claro como para inducir la comprensión, su magia se desmorona”.
El desafío de la inteligencia artificial generativa es que, a diferencia de la metodología muy básica de coincidencia y sustitución de patrones de ELIZA, es mucho más difícil encontrar un lenguaje “suficientemente sencillo” para hacer que la magia de la IA se desmorone.
Creo que es posible que esto suceda. Espero que las universidades que se apresuran a contratar más expertos técnicos en IA pongan el mismo esfuerzo en contratar especialistas en ética en IA. Espero que los medios de comunicación ayuden a superar el revuelo. Espero que todos reflexionen sobre sus propios usos de esta tecnología y sus consecuencias. Y espero que las empresas de tecnología escuchen las críticas informadas al considerar qué opciones siguen dando forma al futuro.
“Es probable que (se dispare) la cantidad de imágenes y videos generados por IA causando más daño en el mundo”
En 1970, Marvin Minsky, el pionero de la IA, dijo a la revista Life: “Dentro de tres a ocho años tendremos una máquina con la inteligencia general de un ser humano promedio”. En el momento en que la inteligencia artificial iguala y comienza a superar la inteligencia humana (aún no ha llegado), es seguro decir que Minsky estaba equivocado. Es peligroso hacer predicciones sobre la IA.
Aun así, hacer predicciones a un año no parece tan arriesgado. ¿Qué se puede esperar de la IA en 2024? Primero, ¡la carrera ha comenzado! El progreso en IA había sido constante desde los días de Minsky, pero el lanzamiento público de ChatGPT en 2022 inició una competencia total por ganancias, gloria y supremacía global. Espere una IA más potente, además de una avalancha de nuevas aplicaciones de IA.
Es probable que las nuevas aplicaciones de IA también generen nuevos problemas. Es posible que pronto empieces a oír hablar de chatbots de IA y asistentes que hablan entre sí y mantienen conversaciones enteras en tu nombre pero a tus espaldas. Algunas cosas se volverán locas: cómicamente, trágicamente o ambas cosas.
Es probable que los deepfakes, imágenes y vídeos generados por IA que son difíciles de detectar, se vuelvan rampantes a pesar de la incipiente regulación, causando más daños sórdidos a las personas y a las democracias en todo el mundo. Y es probable que haya nuevas clases de calamidades de la IA que no habrían sido posibles ni siquiera hace cinco años.
Hablando de problemas, las mismas personas que hacen sonar las alarmas más fuertes sobre la IA –como Elon Musk y Sam Altman– no parecen poder evitar construir una IA cada vez más poderosa. Este año predigo que seguirán haciendo más de lo mismo. Son como pirómanos que provocan el incendio ellos mismos rogando a las autoridades que los detengan. Y en ese sentido, lo que más espero para 2024 –aunque parece tardar en llegar– es una regulación más estricta de la IA, a nivel nacional e internacional.
” Mi principal preocupación es que capacidades tan avanzadas planteen nuevos desafíos para distinguir entre contenido generado por humanos y contenido generado por IA.
“La avalancha de contenido de IA podría llevar a un mundo en el que se pueda orquestar desinformación a gran escala”
Por Anjana Susarla, profesora de Sistemas de Información
En el año transcurrido desde la presentación de ChatGPT, el desarrollo de modelos de IA generativa continúa a un ritmo vertiginoso. A diferencia de ChatGPT hace un año, que tomaba indicaciones textuales como entradas y producía salidas textuales, la nueva clase de modelos generativos de IA está entrenada para ser multimodal, lo que significa que los datos utilizados para entrenarlos provienen no solo de fuentes textuales como Wikipedia y Reddit, sino también vídeos de YouTube o de audio de Spotify. Con la nueva generación de modelos de lenguaje grande (LLM) multimodales que impulsan estas aplicaciones, puede usar entradas de texto para generar no solo imágenes y texto, sino también audio y video.
Las empresas están compitiendo para desarrollar LLM que puedan implementarse en una variedad de hardware y en una variedad de aplicaciones, incluida la ejecución de un LLM en un teléfono inteligente. El surgimiento de estos LLM podría marcar el comienzo de un mundo de agentes autónomos de IA, un mundo para el que la sociedad no está necesariamente preparada.
Estas capacidades avanzadas de IA ofrecen un inmenso poder transformador en aplicaciones que van desde los negocios hasta la medicina de precisión. Mi principal preocupación es que capacidades tan avanzadas planteen nuevos desafíos para distinguir entre contenido generado por humanos y contenido generado por IA.
La avalancha de contenido producido por la IA generativa podría desencadenar un mundo en el que personas e instituciones malintencionadas puedan fabricar identidades sintéticas y orquestar información errónea a gran escala.
Una avalancha de contenido generado por IA preparado para explotar filtros algorítmicos y motores de recomendación pronto podría dominar funciones críticas como la verificación de información, la alfabetización informacional y parte del funcionamiento de los motores de búsqueda, las redes sociales y los servicios digitales.
La Comisión Federal de Comercio (FTC, por sus siglas en inglés) ha advertido sobre fraudes, engaños, infracciones de la privacidad y otras prácticas desleales posibles gracias a la facilidad de creación de contenidos asistida por IA. Si bien las plataformas digitales como YouTube han instituido pautas para la divulgación de contenido generado por IA, es necesario un mayor escrutinio por parte de agencias como la FTC y legisladores.
Un nuevo proyecto de ley bipartidista presentado en el Congreso tiene como objetivo codificar la alfabetización algorítmica. Con la IA cada vez más entrelazada con todo lo que hace la gente, está claro que ha llegado el momento de centrarse no en los algoritmos como piezas de tecnología, sino de considerar los contextos en los que operan los algoritmos: personas, procesos y sociedad.