Porquero de Agamenón
Madmaxista
- Desde
- 31 Ago 2019
- Mensajes
- 6.145
- Reputación
- 14.863
Esta ingeniera fue la jefa de ética de IA de Google, pero la compañía la despidió fulminantemente por poner en duda sus algoritmos. Gebru se ha convertido en una de las voces más críticas y brillantes sobre el desarrollo de esta tecnología
Timnit Gebru. (Getty Images)
Las claves
el ascenso meteórico de OpenAI (y Sam Altman)
Google vs. Microsoft: guerra abierta por la inteligencia artificial que va a cambiar tu vida
Manuel Ángel Méndez Gráficos: Miguel Ángel Gavilanes
Por
Manuel Ángel Méndez
18/04/2023 - 05:00
·
Hace apenas dos años y medio, el nombre de Timnit Gebru dio la vuelta al mundo. Esta ingeniera de Stanford de origen etíope, especializada en inteligencia artificial, trabajaba por aquel entonces en Google. Lideraba su unidad de ética y acababa de escribir un paper que generó una de las mayores crisis internas de la historia reciente de la compañía. El informe se titulaba "El peligro de los loros estocásticos" y, visto en perspectiva, fue premonitorio. Hablaba de los riesgos de los grandes modelos de lenguaje (LLM, en sus siglas en inglés), es decir, de lo que hoy todos ya conocemos como ChatGPT. Era un rodillo. Avisaba de los problemas de sesgos, financieros y medioambientales de este tipo de tecnología y exigía una mayor regulación. A Google no le gustó nada, tan poco de hecho que la despidió al instante. "Fue una etapa muy difícil, creo que no podría volver a pasar por algo así", recuerda desde su casa en San Francisco en una entrevista con El Confidencial.
Gebru (39 años) se quedó sin empleo en las Navidades de 2020 y, desde entonces, se ha convertido en una de las voces más críticas de la actual fiebre por la inteligencia artificial. Es casi imposible encontrar en este terreno a alguien que mezcle como ella conocimiento técnico, perspectiva social, de género y racial y, además, sea independiente de la influencia de las grandes tecnológicas. Gebru llama a Musk "sexista" y acusa a Google, Microsoft, OpenAI o Facebook de estar llevando a cabo "un robo de datos masivo". Sus rivales, como el investigador Pedro Domingos o el propio Musk, la tachan de "activista loca" y de ejemplo de cómo el "bichito pogre" ha infectado el mundo tecnológico. Es el manual de la élite de Silicon Valley en acción: desacreditar a quienes avisan de los monopolios que vienen.
Este veterano de la inteligencia artificial explica por qué ChatGPT es "peligrosamente menso"
Manuel Ángel Méndez
Timnit, considerada por la revista Time una de las personas más influyentes del planeta, o por la revista Nature como una de las 10 personas que más ha influenciado la ciencia en 2021, dice buscar tan solo abrirnos los ojos ante algunos de los peligros de la IA. Hacernos más críticos. Desenmascarar la hipocresía de OpenAI, Google o Microsoft. "Nos están vendiendo un futuro utópico en el que, básicamente, no hay humanos. Te despiertas y hablas con un chatbot. Obtienes tu música de un chatbot, tus libros y tu arte de un chatbot… Pero, ¿por qué? No acabo de entender por qué queremos este tipo de mundo. El problema es que ellos tienen tanto dinero y hacen tanta propaganda que al final te hacen desear algo así".
PREGUNTA. Han pasado poco más de dos años desde que Google la despidiera. ¿Cómo recuerda aquella etapa?
RESPUESTA. Fue muy tenso, perdí mucho peso, estaba muy estresada y, a la vez, no tenía tiempo para procesar nada, tenía que actuar rápido en cada momento. Estaba todo el día entre abogados, medios de comunicación, mi equipo… Ahora la situación es muy triste. Hace dos años y medio se sucedieron muchas cosas a la vez, las protestas del Black Lives Matter, había más presión sobre las tecnológicas para comportarse éticamente… Ahora, ha habido un completo retroceso al movimiento del Black Lives Matter. Y las compañías estás despidiendo a todos sus equipos de ética de inteligencia artificial. Eso te demuestra cuáles son sus prioridades. Si a mí me hubieran despedido ahora, creo que habría pasado desapercibida.
Timnit Gebru. (Cedida)
P. Dos años no es nada, pero de repente medio planeta estamos usando ChatGPT y debatiendo qué empleos van a desaparecer. ¿Le ha sorprendido la rápida explosión de la IA en tan poco tiempo?
R. Oh, dios mío… (risas). Cuando escribimos sobre los peligros de los grandes modelos de lenguaje, mucha gente no sabía ni lo que eran. En ese momento nos preocupaba estar escribiendo sobre algo muy especializado. Y mira ahora. Honestamente, nunca pensé que fuéramos a llegar a este punto en el que, literalmente, todo el mundo está hablando y escribiendo sobre esto. Estoy horrorizada y exhausta por este hype. Escucho a gente, incluso ingenieros e investigadores, decir cosas como que “una gran parte del PIB va a depender de la IA”, “todo el mundo va a tener que desarrollar su tecnología sobre GPT-4” y todas estas cosas. Hay muchas startups que ofrecen soluciones que funcionan mejor y no pasan por este modelo centralizado. Y, luego, el tipo de afirmaciones que hacen sin ningún tipo de base ni prueba, como que los abogados serán reemplazados por un chat, que los artistas desaparecerán…
P. ¿No cree que GPT-4 y la IA sea la revolución que nos están vendiendo?
R. Tiene una parte revolucionaria, y creo que lo puede ser, pero no en la forma en la que ellos hablan. Para empezar, se está produciendo un robo masivo de datos. He hablado con muchos artistas y es descorazonador oír lo que cuentan. Imagina que te pasas toda la vida intentando mejorar tus habilidades, y que compartes todo eso en internet, hablas sobre todo el proceso por el cual llegas a perfeccionar tu técnica. O un programador, hablando sobre cómo usa Stack Overflow y colgando vídeos y artículos sobre ello. Eso es lo que se supone que era internet, un lugar para compartir conocimiento y aprender de otros. Mucha gente lleva años haciendo esto y de repente, llega una compañía con miles de millones, coge todo eso gratis, y te lo vende diciendo que eso va a hacer tu vida mucho más fácil. En ese sentido, sí, creo que va a haber una revolución brutal porque nos están robando a todos de forma masiva.
La centralización de poder que eso está produciendo no creo que sea el camino a seguir. ¿Cómo vas a reemplazar a un abogado? ¿O a un médico? ¿O a un artista? El arte no es eso, no es reemplazar a una persona con un generador de imágenes. El arte va de la expresión humana. Desde luego está ocurriendo algo muy grande, pero gira en torno a la centralización del poder, la explotación de gente para entrenar y afinar estos sistemas y el robo masivo de datos. Mi colega Emily M. Bender lo llama la gran fuga de petróleo del ecosistema de información. Yo estoy en shock de ver cómo unos pocos de individuos ricos y altamente conectados han sido capaces de llevar a todo el mundo a este punto.
"Google, OpenAI o Microsoft están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas y explotando a trabajadores"
P. En su paper de 2020, el que le costó el despido, identificaba algunos de los peligros de la IA que ahora hemos empezado a ver con ChatGPT. ¿Cuál es el que más le preocupa?
R. La centralización de poder. Amazon quiere ser el único sitio donde lo compres todo, y ahora OpenAI quiere ser el único sitio donde puedes obtener cualquier información. Microsoft va por el mismo camino. Pero no es el único. Estamos viendo muchísimos problemas con los resultados que producen los modelos de IA previos que a su vez se están usando para entrenar las siguientes versiones. Esto es lo más básico en machine learning: no puedes entrenar versiones sucesivas de un modelo basándote en datos anteriores. La misma gente que habla de revolución no está haciendo lo más básico, que es no contaminar tus datos.
P. Algunas personas se están enamorando de un chatbot. Está ocurriendo.
R. Sí, y nosotros avisamos de ello. Escribimos que imitar el comportamiento humano es una línea roja en el desarrollo de la IA, estás engañando a la gente a propósito para que piensen que están hablando con otro humano. Muchos de esos modelos de lenguaje, por definición, están entrenados y concebidos para sonar como una persona. Avisamos de lo que eso supondría, y ahora vemos el resultado. El otro día vi un nuevo servicio en el que Andreessen Horowitz ha invertido miles de millones de dólares que te ofrece personajes de IA para hacer amigos, y son todo chicas. Y ya sabes por dónde va la cosa, en el fondo mucha gente entra ahí con motivaciones sensuales. Y de nuevo ves la visión que tiene esta gente del futuro, una sociedad en la que no hay apenas interacción humana y hablas con un software. Otra persona en Bélgica se suicidó hace poco tras pasarse semanas hablando con un chatbot. Es distópico.
Sam Altman, fundador de OpenAI. (Reuters)
P. ¿Por qué es malo tener sentimientos hacia una IA? No quita de querer a una persona.
R. Pero, ¿por qué vas a querer hacer eso? ¿Cuál es el objetivo real de ofrecer esto? ¿Para gente que tiene problemas de socialización? Y, ¿cómo ayuda a eso a que los seres humanos vivamos mejor en sociedad? ¿En qué ayuda eso a otros grandes objetivos como detener una guerra o parar el cambio climático? OpenAI dice que su objetivo es trabajar en conseguir inteligencia artificial general [AGI, en sus siglas en inglés] que nos lleve a todos a una especie de utopía. No veo la conexión entre lo que están ofreciendo y ese supuesto objetivo de mejorar el mundo.
P. Google, Microsoft y OpenAI se han enzarzado en una carrera loca para liderar en IA, lanzando programas sin acabar o sin los filtros de seguridad y privacidad necesarios. ¿Están siendo temerarios?
R. Están siendo mucho más que temerarios. Y lo que no entiendo es cómo se les está permitiendo hacer esto. Hace unos días hicimos un evento en el que hablamos en directo con un trabajador en Kenia que moderaba el contenido que producía Dall-E y Chat-GPT, y nos contó los problemas de salud mental que le creaba ese trabajo. Decía que era mucho peor que moderar contenido creado por una persona porque acababa preguntándose todo el rato si lo que veía ocurría o no en la vida real. Imagina todos los problemas que hemos sufrido con la moderación y las redes sociales, pero multiplicados por 1.000, por la explosión tan brutal de contenido sintético que estamos viendo.
De alguna forma, han conseguido salirse con la suya, y dicen que es imparable y revolucionario. Lo más loco es que ves a gente en este campo, en IA, que son auténticos fanáticos de lo que está ocurriendo. Se han inventado este término, AGI, y dicen, “oh, este sistema muestra características de AGI”. Pero, ¿qué es AGI, siquiera? No hay acuerdo sobre ello. Hace poco Microsoft publicó otro paper que no estaba revisado por pares donde decía que GPT-4 muestra “destellos” de AGI. ¿Qué significa eso? No hay una definición científica. Y la primera referencia de ese estudio era a un artículo de opinión de un grupo de investigadores que argumentan que hay diferencias en inteligencia dependiendo de la raza. Luego tuvieron que pedir disculpas. Ves estas cosas y te das cuenta de la locura por la que estamos pasando.
En la película Her, su protagonista (interpretado por Joaquin Phoenix, en la imagen) se enamora de una IA.
P. ¿Por qué cree que no se puede confiar en Google, Microsoft o OpenAI para el desarrollo de la IA?
R. Si miras a sus objetivos, su principal meta es hacer cuando más dinero mejor. No hay otro incentivo. Cuando la ciencia tiene el objetivo de ganar más dinero o ayudar a un gobierno a ganar una guerra, acabamos en una situación como la actual. Estas compañías están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas – ni siquiera nos enseñan los datos que han usado ni si han pedido permiso para obtenerlos - y explotando a trabajadores. Decir “¡confía en mí, bro!” no es una política. Necesitamos algún tipo de estructura para forzarles a hacer las cosas de forma diferente.
P. Esa es la gran pregunta, ¿cómo conseguirlo? ¿Cómo regularlos? Si algo hemos visto en los últimos años es que Amazon, Apple, Google, Facebook o Amazon son ya demasiado grandes como para pararles los pies.
R. En EEUU no tenemos nada para regular a estas empresas. El GDPR en Europa es lo más avanzado, pero incluso este reglamento lo que hace es poner el foco en el individuo para defenderse, cuando lo lógico sería poner el foco en la empresa y obligarles a demostrar que han hecho auditorías y que no han sobrepasado determinadas líneas rojas. ¿Nos pueden asegurar que para todos y cada uno de los datos que usan han recibido consentimiento de uso? Algo tan básico como eso no lo tenemos. Esto es como decir, me voy a convertir en chef, voy a abrir un restaurante, voy a ir al mercado y me voy a llevar todos los alimentos sin pagar a nadie para luego cobrar por comer en mi local. Eso es un delito, pero es básicamente lo que están haciendo las tecnológicas.
"¿Qué voy a esperar de un hombre blanco que ha crecido con el apartheid en Sudáfrica, que tiene el mayor caso de discriminación racial en la historia de California y de uno de los mayores sexistas?"
P. Sam Altman dice tener miedo de la IA, pero a la vez OpenAI publica informes detallando los trabajos que desaparecerán por culpa de ChatGPT.
R. Es su estrategia para generar toneladas de dinero y centralizar el poder. Es como lo de la carta firmada por 1.200 investigadores pidiendo una pausa en el desarrollo de la IA. Nosotros no apoyamos esa carta. Y el motivo es evidente. ¿Por qué Elon Musk, el mayor millonario del mundo, que ha invertido cientos de millones en sistemas de IA, de repente pide una jovenlandesatoria? La IA se ha ido moviendo en el mismo ciclo cada 5 o 10 años. Primero dicen que va a ser apocalíptica y luego que nos va a traer un mundo utópico. Es como ha venido operando la gente al frente de todo esto durante al menos las dos ultimas décadas. Te hacen pensar que han creado un sistema tan potente y mágico que da miedo, lo pintan casi como un dios. Eso te distrae de fijarte en los problemas más mundanos, como robar datos, la privacidad o la explotación de trabajadores. Así funcionan, te hacen pensar en los productos mágicos que están creando y no en las leyes que están quebrantando.
P. Muchas veces pensamos que la tecnología que usamos es la tecnología que realmente necesitamos, pero en la mayoría de ocasiones, es la tecnología que mejor le conviene desarrollar a su creador por rentabilidad o por otro motivo de negocio. ¿Está ocurriendo lo mismo con la IA?
R. ¿Cómo no van a querer Google o Microsoft un sistema que hace todo lo que le pidas a cambio de pagarles por ello? Es su sueño. Todo la gente alrededor del mundo ha contribuido con sus datos a esos modelos, ellos no pagan nada y luego encima cobran por eso. ¿Cómo no van a querer hacer algo así? Desde luego, no creo que eso sea lo que de verdad queremos. El problema es que no nos enseñan a analizar y se críticos con la tecnología de esta forma.
Protestas de empleados de Google en Londres el pasado 4 de abril por los despidos de la compañía. (Reuters)
P. ¿Es el término inteligencia artificial general, AGI, otra forma de distraernos de la realidad?
R. Es que ni siquiera hay acuerdo sobre lo que es AGI. Unos dicen, bueno, es un sistema que es más inteligente que los humanos, otros, bueno, se llega a ello cuando la mayor parte del PIB viene determinado por una IA. OpenAI dice que está construyendo algo que ni siquiera se puede definir y, lo que es peor, tampoco pueden compartir las características del sistema. Eso es muy diferente de decir, voy a construir un sistema que va a hacer X, Y, Z, en estos escenarios controlados, y estos son los usuarios, entonces puedo diseñar protocolos de seguridad alrededor de ello. En lugar de eso, OpenAI juega a asegurar que está construyendo un sistema que suena como un semi dios. Es como Facebook cuando presentó su propio ChatGPT para científicos, Galáctica. Decían, “¡puede programar, y rastrear proteínas, y escribir papers científicos, y más!”. Sonaba como si hubieran construido una máquina de movimiento perpétuo, que es imposible. Es triste porque todo esto, en lugar de estar impulsado por la ciencia y la investigación, está impulsado por el dinero.
P. Mencionaba la famosa carta de 1.200 científicos y académicos pidienco una jovenlandesatoria en el desarrollo de IA. ¿Por qué está en contra?
R. Hay que poner las cosas en contexto. El Future of Life Institute [impulsor de la carta] es un organismo que solo cree en esta visión a largo plazo de un futuro utópico dominado por máquinas en el que subiremos nuestras mentes a una especie de Matrix. Es literalmente lo que creen (se ríe). En el 2015, publicaron una carta similar justo después de que Nick Bostrom publicara este libro, Superintelligence, hablando de cómo la IA traería la apocalipsis. Es muy interesante ver cómo gente que creerías que es razonable luego se guía por creencias fanáticas casi religiosas. Muchos se toman a Nick Bostrom en serio, un tipo que habla de las presiones disgénicas como una amenaza para la humanidad. Esta gente se ha dejado guiar en parte por este tipo de filosofías, que son geniales para los millonarios, pero no para los académicos. ¿Qué pasó también en 2015? Google compró DeepMind. Surgió una paranoia de que Google iba a ser dueña de un sistema que podía convertirse casi un semi dios, así que se creó OpenAI como un contrapoder a Google. Ahora, Microsoft acaba casi de comprar OpenAI y lo mismo. “Oh dios mio, tenemos que pararles, no contralamos esto”. Y ahora parece que Musk está haciendo su propio laboratorio de IA. Es una locura.
Timnit Gebru. (Getty Images)
Las claves
el ascenso meteórico de OpenAI (y Sam Altman)
Google vs. Microsoft: guerra abierta por la inteligencia artificial que va a cambiar tu vida
Manuel Ángel Méndez Gráficos: Miguel Ángel Gavilanes
Por
Manuel Ángel Méndez
18/04/2023 - 05:00
·
Hace apenas dos años y medio, el nombre de Timnit Gebru dio la vuelta al mundo. Esta ingeniera de Stanford de origen etíope, especializada en inteligencia artificial, trabajaba por aquel entonces en Google. Lideraba su unidad de ética y acababa de escribir un paper que generó una de las mayores crisis internas de la historia reciente de la compañía. El informe se titulaba "El peligro de los loros estocásticos" y, visto en perspectiva, fue premonitorio. Hablaba de los riesgos de los grandes modelos de lenguaje (LLM, en sus siglas en inglés), es decir, de lo que hoy todos ya conocemos como ChatGPT. Era un rodillo. Avisaba de los problemas de sesgos, financieros y medioambientales de este tipo de tecnología y exigía una mayor regulación. A Google no le gustó nada, tan poco de hecho que la despidió al instante. "Fue una etapa muy difícil, creo que no podría volver a pasar por algo así", recuerda desde su casa en San Francisco en una entrevista con El Confidencial.
Gebru (39 años) se quedó sin empleo en las Navidades de 2020 y, desde entonces, se ha convertido en una de las voces más críticas de la actual fiebre por la inteligencia artificial. Es casi imposible encontrar en este terreno a alguien que mezcle como ella conocimiento técnico, perspectiva social, de género y racial y, además, sea independiente de la influencia de las grandes tecnológicas. Gebru llama a Musk "sexista" y acusa a Google, Microsoft, OpenAI o Facebook de estar llevando a cabo "un robo de datos masivo". Sus rivales, como el investigador Pedro Domingos o el propio Musk, la tachan de "activista loca" y de ejemplo de cómo el "bichito pogre" ha infectado el mundo tecnológico. Es el manual de la élite de Silicon Valley en acción: desacreditar a quienes avisan de los monopolios que vienen.
Este veterano de la inteligencia artificial explica por qué ChatGPT es "peligrosamente menso"
Manuel Ángel Méndez
Timnit, considerada por la revista Time una de las personas más influyentes del planeta, o por la revista Nature como una de las 10 personas que más ha influenciado la ciencia en 2021, dice buscar tan solo abrirnos los ojos ante algunos de los peligros de la IA. Hacernos más críticos. Desenmascarar la hipocresía de OpenAI, Google o Microsoft. "Nos están vendiendo un futuro utópico en el que, básicamente, no hay humanos. Te despiertas y hablas con un chatbot. Obtienes tu música de un chatbot, tus libros y tu arte de un chatbot… Pero, ¿por qué? No acabo de entender por qué queremos este tipo de mundo. El problema es que ellos tienen tanto dinero y hacen tanta propaganda que al final te hacen desear algo así".
PREGUNTA. Han pasado poco más de dos años desde que Google la despidiera. ¿Cómo recuerda aquella etapa?
RESPUESTA. Fue muy tenso, perdí mucho peso, estaba muy estresada y, a la vez, no tenía tiempo para procesar nada, tenía que actuar rápido en cada momento. Estaba todo el día entre abogados, medios de comunicación, mi equipo… Ahora la situación es muy triste. Hace dos años y medio se sucedieron muchas cosas a la vez, las protestas del Black Lives Matter, había más presión sobre las tecnológicas para comportarse éticamente… Ahora, ha habido un completo retroceso al movimiento del Black Lives Matter. Y las compañías estás despidiendo a todos sus equipos de ética de inteligencia artificial. Eso te demuestra cuáles son sus prioridades. Si a mí me hubieran despedido ahora, creo que habría pasado desapercibida.
Timnit Gebru. (Cedida)
P. Dos años no es nada, pero de repente medio planeta estamos usando ChatGPT y debatiendo qué empleos van a desaparecer. ¿Le ha sorprendido la rápida explosión de la IA en tan poco tiempo?
R. Oh, dios mío… (risas). Cuando escribimos sobre los peligros de los grandes modelos de lenguaje, mucha gente no sabía ni lo que eran. En ese momento nos preocupaba estar escribiendo sobre algo muy especializado. Y mira ahora. Honestamente, nunca pensé que fuéramos a llegar a este punto en el que, literalmente, todo el mundo está hablando y escribiendo sobre esto. Estoy horrorizada y exhausta por este hype. Escucho a gente, incluso ingenieros e investigadores, decir cosas como que “una gran parte del PIB va a depender de la IA”, “todo el mundo va a tener que desarrollar su tecnología sobre GPT-4” y todas estas cosas. Hay muchas startups que ofrecen soluciones que funcionan mejor y no pasan por este modelo centralizado. Y, luego, el tipo de afirmaciones que hacen sin ningún tipo de base ni prueba, como que los abogados serán reemplazados por un chat, que los artistas desaparecerán…
P. ¿No cree que GPT-4 y la IA sea la revolución que nos están vendiendo?
R. Tiene una parte revolucionaria, y creo que lo puede ser, pero no en la forma en la que ellos hablan. Para empezar, se está produciendo un robo masivo de datos. He hablado con muchos artistas y es descorazonador oír lo que cuentan. Imagina que te pasas toda la vida intentando mejorar tus habilidades, y que compartes todo eso en internet, hablas sobre todo el proceso por el cual llegas a perfeccionar tu técnica. O un programador, hablando sobre cómo usa Stack Overflow y colgando vídeos y artículos sobre ello. Eso es lo que se supone que era internet, un lugar para compartir conocimiento y aprender de otros. Mucha gente lleva años haciendo esto y de repente, llega una compañía con miles de millones, coge todo eso gratis, y te lo vende diciendo que eso va a hacer tu vida mucho más fácil. En ese sentido, sí, creo que va a haber una revolución brutal porque nos están robando a todos de forma masiva.
La centralización de poder que eso está produciendo no creo que sea el camino a seguir. ¿Cómo vas a reemplazar a un abogado? ¿O a un médico? ¿O a un artista? El arte no es eso, no es reemplazar a una persona con un generador de imágenes. El arte va de la expresión humana. Desde luego está ocurriendo algo muy grande, pero gira en torno a la centralización del poder, la explotación de gente para entrenar y afinar estos sistemas y el robo masivo de datos. Mi colega Emily M. Bender lo llama la gran fuga de petróleo del ecosistema de información. Yo estoy en shock de ver cómo unos pocos de individuos ricos y altamente conectados han sido capaces de llevar a todo el mundo a este punto.
"Google, OpenAI o Microsoft están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas y explotando a trabajadores"
P. En su paper de 2020, el que le costó el despido, identificaba algunos de los peligros de la IA que ahora hemos empezado a ver con ChatGPT. ¿Cuál es el que más le preocupa?
R. La centralización de poder. Amazon quiere ser el único sitio donde lo compres todo, y ahora OpenAI quiere ser el único sitio donde puedes obtener cualquier información. Microsoft va por el mismo camino. Pero no es el único. Estamos viendo muchísimos problemas con los resultados que producen los modelos de IA previos que a su vez se están usando para entrenar las siguientes versiones. Esto es lo más básico en machine learning: no puedes entrenar versiones sucesivas de un modelo basándote en datos anteriores. La misma gente que habla de revolución no está haciendo lo más básico, que es no contaminar tus datos.
P. Algunas personas se están enamorando de un chatbot. Está ocurriendo.
R. Sí, y nosotros avisamos de ello. Escribimos que imitar el comportamiento humano es una línea roja en el desarrollo de la IA, estás engañando a la gente a propósito para que piensen que están hablando con otro humano. Muchos de esos modelos de lenguaje, por definición, están entrenados y concebidos para sonar como una persona. Avisamos de lo que eso supondría, y ahora vemos el resultado. El otro día vi un nuevo servicio en el que Andreessen Horowitz ha invertido miles de millones de dólares que te ofrece personajes de IA para hacer amigos, y son todo chicas. Y ya sabes por dónde va la cosa, en el fondo mucha gente entra ahí con motivaciones sensuales. Y de nuevo ves la visión que tiene esta gente del futuro, una sociedad en la que no hay apenas interacción humana y hablas con un software. Otra persona en Bélgica se suicidó hace poco tras pasarse semanas hablando con un chatbot. Es distópico.
Sam Altman, fundador de OpenAI. (Reuters)
P. ¿Por qué es malo tener sentimientos hacia una IA? No quita de querer a una persona.
R. Pero, ¿por qué vas a querer hacer eso? ¿Cuál es el objetivo real de ofrecer esto? ¿Para gente que tiene problemas de socialización? Y, ¿cómo ayuda a eso a que los seres humanos vivamos mejor en sociedad? ¿En qué ayuda eso a otros grandes objetivos como detener una guerra o parar el cambio climático? OpenAI dice que su objetivo es trabajar en conseguir inteligencia artificial general [AGI, en sus siglas en inglés] que nos lleve a todos a una especie de utopía. No veo la conexión entre lo que están ofreciendo y ese supuesto objetivo de mejorar el mundo.
P. Google, Microsoft y OpenAI se han enzarzado en una carrera loca para liderar en IA, lanzando programas sin acabar o sin los filtros de seguridad y privacidad necesarios. ¿Están siendo temerarios?
R. Están siendo mucho más que temerarios. Y lo que no entiendo es cómo se les está permitiendo hacer esto. Hace unos días hicimos un evento en el que hablamos en directo con un trabajador en Kenia que moderaba el contenido que producía Dall-E y Chat-GPT, y nos contó los problemas de salud mental que le creaba ese trabajo. Decía que era mucho peor que moderar contenido creado por una persona porque acababa preguntándose todo el rato si lo que veía ocurría o no en la vida real. Imagina todos los problemas que hemos sufrido con la moderación y las redes sociales, pero multiplicados por 1.000, por la explosión tan brutal de contenido sintético que estamos viendo.
De alguna forma, han conseguido salirse con la suya, y dicen que es imparable y revolucionario. Lo más loco es que ves a gente en este campo, en IA, que son auténticos fanáticos de lo que está ocurriendo. Se han inventado este término, AGI, y dicen, “oh, este sistema muestra características de AGI”. Pero, ¿qué es AGI, siquiera? No hay acuerdo sobre ello. Hace poco Microsoft publicó otro paper que no estaba revisado por pares donde decía que GPT-4 muestra “destellos” de AGI. ¿Qué significa eso? No hay una definición científica. Y la primera referencia de ese estudio era a un artículo de opinión de un grupo de investigadores que argumentan que hay diferencias en inteligencia dependiendo de la raza. Luego tuvieron que pedir disculpas. Ves estas cosas y te das cuenta de la locura por la que estamos pasando.
En la película Her, su protagonista (interpretado por Joaquin Phoenix, en la imagen) se enamora de una IA.
P. ¿Por qué cree que no se puede confiar en Google, Microsoft o OpenAI para el desarrollo de la IA?
R. Si miras a sus objetivos, su principal meta es hacer cuando más dinero mejor. No hay otro incentivo. Cuando la ciencia tiene el objetivo de ganar más dinero o ayudar a un gobierno a ganar una guerra, acabamos en una situación como la actual. Estas compañías están tratando de conseguir todo el dinero posible robando, no contándonos qué hay detrás de sus sistemas – ni siquiera nos enseñan los datos que han usado ni si han pedido permiso para obtenerlos - y explotando a trabajadores. Decir “¡confía en mí, bro!” no es una política. Necesitamos algún tipo de estructura para forzarles a hacer las cosas de forma diferente.
P. Esa es la gran pregunta, ¿cómo conseguirlo? ¿Cómo regularlos? Si algo hemos visto en los últimos años es que Amazon, Apple, Google, Facebook o Amazon son ya demasiado grandes como para pararles los pies.
R. En EEUU no tenemos nada para regular a estas empresas. El GDPR en Europa es lo más avanzado, pero incluso este reglamento lo que hace es poner el foco en el individuo para defenderse, cuando lo lógico sería poner el foco en la empresa y obligarles a demostrar que han hecho auditorías y que no han sobrepasado determinadas líneas rojas. ¿Nos pueden asegurar que para todos y cada uno de los datos que usan han recibido consentimiento de uso? Algo tan básico como eso no lo tenemos. Esto es como decir, me voy a convertir en chef, voy a abrir un restaurante, voy a ir al mercado y me voy a llevar todos los alimentos sin pagar a nadie para luego cobrar por comer en mi local. Eso es un delito, pero es básicamente lo que están haciendo las tecnológicas.
"¿Qué voy a esperar de un hombre blanco que ha crecido con el apartheid en Sudáfrica, que tiene el mayor caso de discriminación racial en la historia de California y de uno de los mayores sexistas?"
P. Sam Altman dice tener miedo de la IA, pero a la vez OpenAI publica informes detallando los trabajos que desaparecerán por culpa de ChatGPT.
R. Es su estrategia para generar toneladas de dinero y centralizar el poder. Es como lo de la carta firmada por 1.200 investigadores pidiendo una pausa en el desarrollo de la IA. Nosotros no apoyamos esa carta. Y el motivo es evidente. ¿Por qué Elon Musk, el mayor millonario del mundo, que ha invertido cientos de millones en sistemas de IA, de repente pide una jovenlandesatoria? La IA se ha ido moviendo en el mismo ciclo cada 5 o 10 años. Primero dicen que va a ser apocalíptica y luego que nos va a traer un mundo utópico. Es como ha venido operando la gente al frente de todo esto durante al menos las dos ultimas décadas. Te hacen pensar que han creado un sistema tan potente y mágico que da miedo, lo pintan casi como un dios. Eso te distrae de fijarte en los problemas más mundanos, como robar datos, la privacidad o la explotación de trabajadores. Así funcionan, te hacen pensar en los productos mágicos que están creando y no en las leyes que están quebrantando.
P. Muchas veces pensamos que la tecnología que usamos es la tecnología que realmente necesitamos, pero en la mayoría de ocasiones, es la tecnología que mejor le conviene desarrollar a su creador por rentabilidad o por otro motivo de negocio. ¿Está ocurriendo lo mismo con la IA?
R. ¿Cómo no van a querer Google o Microsoft un sistema que hace todo lo que le pidas a cambio de pagarles por ello? Es su sueño. Todo la gente alrededor del mundo ha contribuido con sus datos a esos modelos, ellos no pagan nada y luego encima cobran por eso. ¿Cómo no van a querer hacer algo así? Desde luego, no creo que eso sea lo que de verdad queremos. El problema es que no nos enseñan a analizar y se críticos con la tecnología de esta forma.
Protestas de empleados de Google en Londres el pasado 4 de abril por los despidos de la compañía. (Reuters)
P. ¿Es el término inteligencia artificial general, AGI, otra forma de distraernos de la realidad?
R. Es que ni siquiera hay acuerdo sobre lo que es AGI. Unos dicen, bueno, es un sistema que es más inteligente que los humanos, otros, bueno, se llega a ello cuando la mayor parte del PIB viene determinado por una IA. OpenAI dice que está construyendo algo que ni siquiera se puede definir y, lo que es peor, tampoco pueden compartir las características del sistema. Eso es muy diferente de decir, voy a construir un sistema que va a hacer X, Y, Z, en estos escenarios controlados, y estos son los usuarios, entonces puedo diseñar protocolos de seguridad alrededor de ello. En lugar de eso, OpenAI juega a asegurar que está construyendo un sistema que suena como un semi dios. Es como Facebook cuando presentó su propio ChatGPT para científicos, Galáctica. Decían, “¡puede programar, y rastrear proteínas, y escribir papers científicos, y más!”. Sonaba como si hubieran construido una máquina de movimiento perpétuo, que es imposible. Es triste porque todo esto, en lugar de estar impulsado por la ciencia y la investigación, está impulsado por el dinero.
P. Mencionaba la famosa carta de 1.200 científicos y académicos pidienco una jovenlandesatoria en el desarrollo de IA. ¿Por qué está en contra?
R. Hay que poner las cosas en contexto. El Future of Life Institute [impulsor de la carta] es un organismo que solo cree en esta visión a largo plazo de un futuro utópico dominado por máquinas en el que subiremos nuestras mentes a una especie de Matrix. Es literalmente lo que creen (se ríe). En el 2015, publicaron una carta similar justo después de que Nick Bostrom publicara este libro, Superintelligence, hablando de cómo la IA traería la apocalipsis. Es muy interesante ver cómo gente que creerías que es razonable luego se guía por creencias fanáticas casi religiosas. Muchos se toman a Nick Bostrom en serio, un tipo que habla de las presiones disgénicas como una amenaza para la humanidad. Esta gente se ha dejado guiar en parte por este tipo de filosofías, que son geniales para los millonarios, pero no para los académicos. ¿Qué pasó también en 2015? Google compró DeepMind. Surgió una paranoia de que Google iba a ser dueña de un sistema que podía convertirse casi un semi dios, así que se creó OpenAI como un contrapoder a Google. Ahora, Microsoft acaba casi de comprar OpenAI y lo mismo. “Oh dios mio, tenemos que pararles, no contralamos esto”. Y ahora parece que Musk está haciendo su propio laboratorio de IA. Es una locura.