Maximilian Kasy duda del impacto de la
El experto expone en su último libro cómo los dilemas de la inteligencia artificial responden más a los intereses de sus propietarios que a su propia potencia técnica

Para Maximilian Kasy (Viena, 43 años), la pregunta verdaderamente importante, y aterradora, sobre inteligencia artificial es: ¿quién la controla? Catedrático de Economía en la Universidad de Oxford, este matemático y experto en técnicas de aprendizaje automático acaba de publicar The Means of Prediction: How AI Really Works and Who Benefits (Los medios de predicción: cómo funciona realmente la IA y quién se beneficia), editado por la Universidad de Chicago, un libro en el que sostiene que los conflictos fundamentales de la IA no surgen de la lucha entre humanos y máquinas, sino entre los que controlan esta tecnología y todos los demás.
Kasy desmenuza los recursos fundamentales que la alimentan y que, parafraseando a Karl Marx, llama “medios de predicción”. Son cuatro: datos, potencia computacional, mano de obra y energía. Quien los controla, como si fueran los anillos de Sauron, controlará la tecnología. De este modo, la despoja de su aura de fuerza imparable y omnipotente, y la sitúa en su justa dimensión: una tecnología moldeada por decisiones humanas, cuyo futuro no está determinado por su extraordinario poder, sino por los intereses de los propietarios que la controlan.
Pregunta. Los mercados llevan varias semanas muy volátiles: bajan las empresas de software, hay una cierta sensación de euforia en torno a Anthropic, a la vez que se habla de una burbuja de la IA... ¿Qué está pasando?
Respuesta. Una de las tesis del volumen sostiene que ni los pesimistas (doomers) ni los defensores (boosters) poseen la razón. No se trata de que todo acabe en desastre y la IA nos extermine, ni tampoco lo opuesto. Está sujeto principalmente a lo que realicemos con esta tecnología tan adaptable que, al final, busca la mejora de algún proceso. La interrogante fundamental es qué se está perfeccionando y quién determina qué se mejora. El porvenir sigue sin definirse.
¿Es una burbuja? Se ha trabajado mucho en las llamadas “leyes de escala”, la idea de que el rendimiento del aprendizaje automático mejora cuando dispone de más datos, mayor capacidad de cálculo, modelos más grandes... Así comenzó el reciente auge de la IA y ha funcionado muy bien durante unos cinco años, pero está claro que ha llegado a un límite. No tiene sentido hacer modelos más grandes si los datos de entrenamiento no aumentan, pero siguen ampliando la capacidad de cálculo. El año pasado invirtieron alrededor de 350.000 millones de euros en centros de datos, lo mismo que este año, pero es poco probable que vayan a mejorar. No es que no vayan a surgir nuevos paradigmas, usos y formas de integrarlos en la economía, pero no creo que su calidad fundamental mejore a menos que hagamos algo diferente.
P. Las especialistas Emily Bender, de la Universidad de Washington, y Alex Hanna, del Instituto DAIR, han presentado La estafa de la IA, un volumen que, de alguna forma, se vincula con el suyo. Comienzan: “Seremos sinceros: La IA es una trampa, una estafa, un engaño diseñado para llenar los bolsillos de ciertas personas”. ¿Cuál es su parecer?
R. Resulta fundamental constituir entidades donde los perjudicados por estas herramientas tengan peso en las decisiones de diseño para su optimización. Sin duda, comparto que no hay que dejarse llevar por el sensacionalismo de los departamentos de marketing, pero eso no significa que cada innovación sea un fraude. Los logros obtenidos son realmente impactantes. El enfoque más fatalista, que sostiene que la IA nos exterminará o nos sustituirá laboralmente, recurre a argumentos casi idénticos a los de los líderes de marketing, aunque con un matiz distinto. Esa visión de una inteligencia lineal que, al equipararse a la humana, progresará de forma autónoma hasta que perdamos el mando, es muy similar a las narrativas de los boosters, con la salvedad de que, según sus propósitos, podría eliminarnos. Ambas conjeturas son erróneas. Se trata de sistemas con bastante antigüedad. El cambio en estos últimos 20 años radica solo en la proporción, llevada a un nivel inmenso por los datos de internet y los gigantescos centros de procesamiento. Esto ha generado progresos notables, pero no supone que hayamos gestado una divinidad a la que debamos someternos ahora.
P. En 2017, Google logró mejorar los procesos de aprendizaje automático para que ejecutaran funciones ajenas a su programación específica, “liberándose” relacionadas de cierto modo con este propósito. ¿No será ya muy tarde para regularlos?
R. Desarrollaron un esquema inédito para el modelado lingüístico, la denominada “arquitectura transformadora”. Tal avance fue sumamente provechoso en la ejecución, aunque teóricamente no transformó el desafío de optimización, que continuaba basándose en elevar la probabilidad de anticipar con exactitud el término posterior en la red, un reto de predicción convencional.
P. Comenta que la IA ha alcanzado tal nivel de ubicuidad que ha provocado una especie de conformismo entre el público…
R. Ciertamente, es posible regular la IA. Es necesario seguir diversas etapas. La fase inicial consiste en restarle misticismo. El debate se torna bastante enredado al mencionar conceptos como conciencia, inteligencia general o superinteligencia... No obstante, resulta bastante más simple si se analiza bajo la óptica de los textos universitarios: la optimización. Existen metas cuantificables, la clase de beneficio o perjuicio que se busca potenciar: qué volumen de ganancias genera la publicidad digital; el tiempo que los usuarios pasan en un sitio; o usos más perjudiciales, como la cifra de individuos expulsados del país (el ICE en Estados Unidos utiliza algoritmos con el fin de desplegar agentes y determinar detenciones). Lo fundamental radica en que se optimizan conductas seleccionadas por sujetos para alcanzar una meta estadística definida por personas. No se trata de un poder místico imposible de comprender. El interrogante clave reside en cómo establecer organismos donde los ciudadanos impactados por un modelo de IA posean una autoridad decisiva sobre sus fines. Tal propósito exige leyes sobre privacidad, competencia comercial y estándares técnicos, además de la fundación de entidades democráticas.
P. ¿Por ejemplo?
R. Una forma que me gusta son los sorteos. La idea es que, entre las partes interesadas —por ejemplo, los usuarios de una plataforma— se seleccione aleatoriamente a un grupo estadísticamente representativo, como los jurados populares, se reúnan, dispongan de recursos, tiempo y aportaciones de expertos para comprender cómo funcionan sus sistemas de IA, y luego tomen una decisión sobre el objetivo a maximizar.
P. Aquello conllevaría ser ciudadanos más ejemplares, sin embargo, los suministros vitales que impulsan la IA, tales como la información y la capacidad de cómputo, se concentran en escasos actores. ¿Quiénes los dominan y de qué forma conservan su influencia?
R. Si aceptamos que son los medios necesarios para producir IA, la cuestión es quién los controla, pues deciden para qué se utiliza. Quizás el más fundamental son los datos y hay muchas preguntas sobre hacia dónde se ha centralizado su control. Los datos de entrenamiento para modelos de lenguaje u otros modelos de IA generativa se toman de la producción intelectual más o menos de dominio público de programadores, periodistas, artistas, autores, músicos… Después los integran y nos los venden de nuevo, lo que supone una redistribución masiva del control. En esencia, la producción intelectual de muchas personas pasa a ser propiedad de unas pocas empresas.
Pero otra clase de datos trascendentales son los de nivel individual, aquellos que nos describen como personas: qué compramos, qué contenidos consumimos, nuestras opiniones políticas, nuestros amigos... Todo lo que caracteriza nuestra vida digital y fuera de ella. Son muy importantes para las decisiones que toman los sistemas de IA a nivel individual, por ejemplo, qué salarios nos ofrecen, qué trabajos conseguimos, cuánto pagamos por los productos en línea, qué información política recibimos, cuándo llama la policía a nuestra puerta... Pero también se utilizan para entrenar sistemas de IA, por lo que se vuelven importantes para todas las demás personas que, en cierto sentido, son similares a mí.
P. ¿Qué ocurre entonces con los derechos de privacidad individuales?
R. Que no nos van a proteger porque pueden diseñar sistemas, de forma que no me importe compartir mis datos si obtengo un pequeño beneficio, un producto, por ejemplo. Las consecuencias posteriores para todos podrían ser catastróficas, o al menos problemáticas, dependiendo del uso. Esa es una forma fundamental en la que el control de los datos tiene que ser más conectivo. Debemos decidir colectivamente qué datos se recopilan y para qué.
P. En algunos países y bajo ciertas ideologías, su mera sugerencia de un control democrático de la IA se consideraría extremista.
R. Hay una cuestión más amplia sobre qué entendemos por democracia. En un sentido abstracto, sería decidir colectivamente sobre nuestro destino. No podemos hacerlo individualmente porque todos dependemos unos de otros. Si tomamos como ejemplo las redes sociales, si Mark Zuckerberg o Elon Musk tienen la última palabra, se centrarán en maximizar sus ingresos publicitarios, objetivos políticos, su visión del mundo... Y eso tiene todo tipo de consecuencias, como vemos en el proceso democrático o en la salud mental de los adolescentes. Mi forma de entenderla sería que las personas, por ejemplo, los usuarios de una plataforma, pudieran decidir sobre lo que ocurre allí: la junta escolar local sobre cómo se distribuyen los alumnos entre las escuelas, la policía local decidiendo dónde enviar patrullas…
P. Es optimista.
R. Lo que me hace más optimista es que tomar colectivamente el control de las grandes tecnológicas no tiene por qué ocurrir de un día para otro. Puede ser un caso de uso tras otro, y legislar a nivel local, nacional o de otro tipo. Que estas empresas se encuentren en Estados Unidos o China no significa que en España no pueda decir: Queremos que los algoritmos de las redes sociales hagan esto. La respuesta a las patologías de la democracia no es menos democracia, sino más democracia real y donde la gente se vea afectada.
Tu membresía se está empleando en un dispositivo diferente.
¿Quieres añadir otro usuario a tu suscripción?
Si continúas leyendo en este dispositivo, no se podrá leer en el otro.
FlechaSu sesión permanece abierta en otro dispositivo y únicamente se autoriza el acceso a Papallones desde un solo terminal a la vez.
Si pretendes compartir tu cuenta, modifica tu suscripción a la opción Premium para sumar a un usuario adicional. Cada persona entrará con su dirección de correo propia, lo que os facilitará adaptar vuestra navegación en Papallones.
¿Tienes una suscripción de empresa? Accede para contratar más cuentas.
Si desconoces quién está utilizando tu cuenta, te sugerimos que modifiques tu clave
Si eliges seguir compartiendo tu suscripción, este aviso se verá en tu equipo y en el de la otra persona que utilice tu perfil de manera permanente, perjudicando tu experiencia de lectura. Tienes la opción de




























































