Ir al contenido
_
_
_
_

Emily Bender y Alex Hanna: “Cuando leemos un texto escrito por una IA, pensamos que hay una mente detrás, pero solo hay números”

La lingüista Emily M. Bender y la socióloga Alex Hanna argumentan en su libro ‘La estafa de la IA’ por qué esta tecnología es “un engaño que nos están vendiendo para llenar los bolsillos de determinadas personas”

De izquierda a derecha, la lingüista Emily M. Bender y la ingeniera, matemática y socióloga Alex Hanna, autoras del libro 'La estafa de la IA'.Cedidas por ellas

A la lingüista Emily M. Bender (Washington, 52 años) y la ingeniera, matemática y socióloga Alex Hanna (California del Sur, 40 años) les une un sentimiento mutuo: su “deseo de desinflar el bombo que se le está dando a la inteligencia artificial (IA)”. Así lo declaran en las primeras páginas de La estafa de la IA, que Paidós publica en España esta semana. El libro surgió como una respuesta a la continua exaltación de las capacidades y virtudes de la IA, a la que las autoras prefieren llamar “máquinas generadoras de contenidos sintéticos”.

“Te seremos sinceras: la IA es una trampa, una estafa, un engaño que nos están vendiendo para llenar los bolsillos de determinadas personas”, arranca el texto. Las autoras dedican más de 300 páginas a argumentar por qué la IA no es realmente inteligente, se equivoca más de lo que se admite, no es tan automática (porque para funcionar necesita el trabajo en remoto de miles de personas) y no hay motivos para pensar que pueda provocar un apocalipsis.

Bender es profesora en la Universidad de Washington, donde dirige el máster de Lingüística Computacional. Es autora de dos estudios muy conocidos en la disciplina. En el primero, acuñó el término “loro estocástico” para referirse a los grandes modelos de lenguaje (LLM por sus siglas inglesas), metáfora con la que subraya el hecho de que repiten de forma probabilística los datos con los que se han entrenado. El segundo, coescrito en 2020 con la entonces directora del equipo de Ética de la IA de Google, Timnit Gebru, a quien le costó el despido, demostraba que los primeros modelos de lenguaje de la tecnológica estaban fuertemente sesgados y perjudicaban a las minorías, además de ofrecer una primera aproximación de los costes financieros y medioambientales de su entrenamiento.

Hanna trabajó en Google con Gebru, y renunció a su puesto cuando echaron a su jefa. Hoy es directora de investigación en el instituto DAIR, fundado por Gebru un año después de su despido. Las autoras atienden a Papallones por videoconferencia desde Seattle y San Francisco, respectivamente.

Pregunta. ¿Cómo llegaron a la conclusión de que la IA es una estafa?

Bender. En mi caso, por la fascinación que me sugiere el esfuerzo que se dedica a vender algo que claramente no puede funcionar de la manera en que dicen que funciona. ¿Por qué tanta energía en decir que la IA lo va a resolver todo? ¿Quién se va a beneficiar de que se use esta tecnología? ¿Cuáles son los efectos secundarios de su uso? Se está vendiendo en sectores como la medicina, la educación, los servicios legales o la industria militar, y siempre va aparejada de la expresión mejora de la productividad, aunque no está tan claro que siempre contribuya a ella.

P. Sostienen que la IA no es inteligente, pero resulta fascinante para el público. ¿Por qué?

B. Estas cosas son convincentes por la forma en que entendemos el lenguaje. Los idiomas son sistemas de signos, tienen forma y significado. Cuando nos comunicamos en una lengua que conocemos bien, eso desaparece: experimentamos el significado directamente. Los modelos lingüísticos solo manipulan la forma, imitan el modo en que las personas usan el lenguaje en muchos contextos diferentes. Cuando lees algo, es fácil pensar que alguien agrupó en palabras las ideas que tenía y las escribió; que ese texto te llegó a ti y que tú descodificaste su significado. Pero eso no es lo que pasa en realidad. Cuando leemos, tenemos en cuenta todo lo que sabemos sobre las creencias del autor, nos preguntamos qué es lo que debe haber intentado transmitir al elegir esas palabras en ese orden. El problema es que lo hacemos por reflejo, así que, cuando vemos texto sintético que sale de Gemini o ChatGPT, no podemos evitar imaginar que hay una mente detrás del texto. Pero solo hay números.

P. Aseguran que las tecnológicas han inflado una gran burbuja en torno a la IA. ¿Cómo lo han conseguido?

Hanna. Es una buena pregunta. Más allá de la valía de esta tecnología, se están invirtiendo enormes cantidades de capital riesgo. En 2025, unos 50.000 millones de dólares, el 70% de toda la inversión en Norteamérica, se destinó a la IA. La publicidad ha sido constante.

B. Si creyeras que estas empresas están a punto de fabricar una máquina que podrá hacer literalmente cualquier cosa, entonces sería una locura no invertir en ellas, ¿verdad? Creo que hay una mezcla de verdaderos creyentes y de inversores que se quieren cubrir las espaldas.

P. En el libro dicen que los doomers, o catastrofistas, y los boosters, o entusiastas de la IA, son más parecidos de lo que se cree. ¿Por qué?

H. Los entusiastas dicen que ya saben que la IA va a existir y que tenemos que dirigirla correctamente para que sea el tipo de tecnología que queremos que sea. Argumentan que tenemos que tratar la IA como a un niño. El subgrupo de los aceleracionistas dice que la IA solucionará gran parte de los problemas de la humanidad. Por otro lado, algunos catastrofistas han llegado a decir disparates como que habría que bombardear los centros de datos si la IA empieza a tomar decisiones propias.

B. A veces parece que, en el debate sobre la IA, solo hay dos posturas: la de los doomers y la de los boosters. Nosotras argumentamos que son dos caras de la misma moneda. Quienes adoran la IA dicen que ya existe, es inevitable y va a resolver todos nuestros problemas. Y quienes la odian dicen que la IA existe, es inevitable y nos va a matar a todos. Esencialmente lo mismo, pero con un giro final distinto.

P. Defienden que la IA general (IAG), la que iguala o supera la humana, no solo no existe, sino que su búsqueda es profundamente racista. ¿Por qué?

H. El origen de la búsqueda de la IAG se basa en distintas pruebas que diferenciaban y clasificaban a las personas según su inteligencia. El proyecto eugenésico de Reino Unido, por ejemplo, consistió en clasificar a las personas con discapacidad por orden de inteligencia. En EE UU ha habido experimentos para medir la inteligencia por razas. Una vez que profundizamos en la teoría, entre comillas, en la que se basan los experimentos que persiguen la IA general, vimos que al menos dos de los autores eran conocidos eugenistas, y también tenían la tradición de hacer este tipo de clasificación de inteligencia.

B. El primer paso de una buena ingeniería consiste en establecer las especificaciones de lo que se va a construir. Y la idea detrás de la IAG es que puede hacer todo lo que una persona puede hacer, tan bien o mejor que ella. Pero no es posible evaluar qué tan bueno es algo en todo. Hay muchos estudios que demuestran que todas esas evaluaciones que se denominan IA versus seres humanos se configuran para adaptarse a la forma en que funcionan los sistemas de IA. Me asaltan algunas dudas: ¿para qué sirve la IAG? ¿Por qué se intenta construir? ¿Con qué propósito?

P. Hablar de los escenarios que proponen los doomers y los boosters, dicen ustedes, distrae la atención de los problemas que causa la IA ahora, no en el futuro.

H. El señor [Geoffrey] Hinton, que desarrolló algoritmos clave para el avance de la IA generativa y de repente se fue de Google para advertirnos de que la IA se descontrolará y causará una catástrofe mundial, ha respondido a esta pregunta. Dice que nuestras preocupaciones son menos importantes porque afectan a poca gente, mientras que él se fija en el conjunto de la humanidad. Casualmente, esa poca gente son sobre todo pobres o negros.

P. ¿Cómo proponen combatir el crecimiento de la burbuja de la IA?

B. Creo que podemos hacerlo. Muchas veces oímos: bueno, no nos gusta, pero tenemos que aprender a vivir con ello. Y ese es un discurso sobre la inevitabilidad que rechazo, porque el futuro aún no está escrito. Yo, por ejemplo, trato de no usar sistemas automáticos de generación de texto. Creo que otro foco posible de resistencia está en los trabajadores de Silicon Valley. No todos tienen la misma ideología. Si pudieran sindicalizarse y hacerse con el poder, en realidad tendrían mucho que decir.

Tu suscripción se está usando en otro dispositivo

¿Quieres añadir otro usuario a tu suscripción?

Si continúas leyendo en este dispositivo, no se podrá leer en el otro.

¿Por qué estás viendo esto?

Flecha

Tu suscripción se está usando en otro dispositivo y solo puedes acceder a Papallones desde un dispositivo a la vez.

Si quieres compartir tu cuenta, cambia tu suscripción a la modalidad Premium, así podrás añadir otro usuario. Cada uno accederá con su propia cuenta de email, lo que os permitirá personalizar vuestra experiencia en Papallones.

¿Tienes una suscripción de empresa? Accede aquí para contratar más cuentas.

En el caso de no saber quién está usando tu cuenta, te recomendamos cambiar tu contraseña aquí.

Si decides continuar compartiendo tu cuenta, este mensaje se mostrará en tu dispositivo y en el de la otra persona que está usando tu cuenta de forma indefinida, afectando a tu experiencia de lectura. Puedes consultar aquí los términos y condiciones de la suscripción digital.

Rellena tu nombre y apellido para comentarcompletar datos

Archivado En

_

Últimas noticias

Recomendaciones Papallones
Recomendaciones Papallones
Recomendaciones Papallones
_
_