Mises Wire

Entendiendo la revolución IA

La revolución de la inteligencia artificial (IA) ya está aquí y está destinada a cambiar el mundo tal y como lo conocemos, o eso es lo que proclama el bombo publicitario tras el lanzamiento de la versión 3.5 de ChatGPT de OpenAI en noviembre de 2022, que no fue más que el principio. De hecho, mucho ha llovido desde entonces con el lanzamiento de la versión 4.0, muy mejorada, que se integró en el motor de búsqueda Bing de Microsoft, y la reciente versión beta de Gemini de Google.

Desde entonces se ha escrito mucho sobre lo que la IA podría significar para la humanidad y la sociedad, desde los extremos positivos de las tecnologías de Star Trek que pronto llegarán y la sociedad de «coste marginal cero» hasta la supuestamente inminente «toma del poder por la IA» que provocará el desempleo masivo o la esclavitud (cuando no el exterminio) de la humanidad. Sin embargo, ¿cuánto de todo esto es ficción y qué es real? En esta serie de artículos de tres partes, analizaré brevemente la realidad y la ficción de la IA, lo que significa para la economía (y la economía) y cuáles son los peligros y amenazas reales. ¿Es el principio del fin o el fin del principio?

La mayoría de la gente conoce el término «inteligencia artificial» por los libros y películas de ciencia ficción. En este tipo de medios, la IA es un ser consciente no biológico, una especie de hombre máquina. A menudo se describe a la máquina inteligente como carente de ciertas cualidades humanas, como la empatía o la ética. Sin embargo, también está libre de limitaciones humanas como la calculabilidad imperfecta y la falta de conocimiento. A veces la IA es benigna y amiga o incluso servidora de la humanidad, como el androide Data en Star Trek: The Next Generation, pero la IA se utiliza a menudo para iluminar problemas, tensiones o incluso una amenaza existencial. Algunos ejemplos de IA distópica son Skynet en Terminator, las máquinas de Matrix y HAL 9000 en 2001: Odisea en el espacio.

La «IA» de nuestro actual mundo real, como ChatGPT de OpenAI y Gemini de Google, no se parece en nada a estas «criaturas» de ciencia ficción; no son ni de lejos seres conscientes. De hecho, lo que tenemos hoy está tan lejos de lo que típicamente llamaríamos una inteligencia que se ha inventado un nuevo término para distinguir la «cosa real» de los chatbots existentes que ahora se denominan «IA»: inteligencia general artificial. Las criaturas-máquinas no biológicas conscientes, pensantes, razonadoras y actuantes de la ciencia ficción son inteligencias generales artificiales. Esto plantea la pregunta: ¿Qué es la IA?

Aprendizaje automático y grandes modelos lingüísticos

La IA actual es una inteligencia en el mismo sentido que una biblioteca de libros. Ambas contienen montones de información clasificada de distintas maneras: por tema, palabra clave, autor y editorial. En una biblioteca normal, los libros se clasifican para ayudar a los usuarios a encontrar lo que buscan.

Sin embargo, imaginemos que todos los libros de la biblioteca se escanearan para que todas las letras, palabras, frases, etc. se almacenaran juntas y se pudieran buscar fácilmente. Esta masa de contenido podría categorizarse de forma inductiva, lo que significa que un programa informático que escudriñara todo el contenido sería capaz de averiguar sus propias categorías nuevas basándose en los propios datos. ¿Cuáles son las palabras y frases más comunes? ¿Cómo se combinan las palabras, en qué orden y en qué contextos están presentes esos órdenes? ¿Qué frases son más frecuentes en qué tipos de libros o capítulos? ¿Qué combinaciones de palabras son raras o no existen? ¿Existen diferencias en el uso de las palabras y la estructura de las frases entre autores, libros y temas?

Esta criba inductiva del contenido, guiada por algoritmos estadísticos, se denomina «aprendizaje automático» y es una poderosa herramienta para encontrar agujas valiosas en pajares de información. El aprendizaje automático encuentra agujas que sabemos que existen, pero también puede descubrir agujas que no sabíamos que existían. Por ejemplo, el uso de estas técnicas para analizar datos médicos puede encontrar (y ha encontrado) correlaciones y causas potenciales de enfermedades que antes se desconocían. Del mismo modo, el Mercatus Center de la Universidad George Mason ha introducido textos normativos en algoritmos de aprendizaje automático para crear RegData, una base de datos que permite a los usuarios analizar, comparar y hacer un seguimiento de las cargas normativas en los Estados Unidos y otros países.

Aunque RegData está pensado para apoyar la investigación en ciencias sociales sobre la normativa, el aprendizaje automático puede utilizarse con todo tipo de información. Cuando estos algoritmos se ejecutan sobre enormes cantidades de texto con el fin de averiguar cómo se utiliza el lenguaje, se habla de grandes modelos lingüísticos (LLM). Estos modelos capturan así una «comprensión» estadística de cómo se usa un lenguaje, o como dice el Diccionario de Cambridge (explicando el LLM de transformador generativo preentrenado (GPT), en el que se basa ChatGPT), «una representación matemática compleja de texto u otros tipos de medios que permite a un ordenador realizar algunas tareas, como interpretar y producir lenguaje, reconocer o crear imágenes y resolver problemas, de una manera que parece similar a la forma en que funciona un cerebro humano».

De hecho, basándose en su comprensión estadística del lenguaje, un chatbot LLM puede generar predictivamente respuestas de texto a preguntas y afirmaciones de una forma que imita una conversación real. De este modo, da la impresión de entender las preguntas y crear respuestas pertinentes; incluso puede «fingir» tener emociones y expresar empatía o gratitud basándose en cómo entiende que pueden usarse las palabras.

En otras palabras, podría decirse que los chatbots LLM como ChatGPT superan la prueba de Turing, ya que hacen que a un humano le resulte muy difícil distinguir sus respuestas de las de un humano real. Aun así, son motores de predicción estadística.

Pero, ¿es inteligente la IA?

Es impresionante que un programa imite una conversación humana hasta el punto de hacer creer a los humanos que es una persona. Sin embargo, queda la cuestión de si es inteligente. Remitiéndonos de nuevo al Diccionario de Cambridgeinteligencia significa «la capacidad de aprender, comprender y emitir juicios u opiniones basados en la razón». Aunque a veces utilizamos verbos como «aprender» y «comprender» para referirnos a las máquinas, se trata de usos figurados, no literales. Una calculadora de bolsillo no «entiende» matemáticas sólo porque pueda presentarnos respuestas a preguntas matemáticas o resolver ecuaciones; no las ha «aprendido»; tampoco puede «emitir juicios» ni «tener opiniones».

Ciertamente, la IA está mucho más avanzada que las calculadoras. Sin embargo, esto no quita para que sean lógicamente iguales: ambas presentan resultados basados en reglas y datos predeterminados, preestructurados y recopilados previamente; ninguna de ellas tiene agencia ni conciencia, y ninguna puede crear nada de novo. Esto es obvio en el caso de la calculadora, que es comparativamente estúpida y sólo produce resultados según simples reglas matemáticas.

Sin embargo, lo mismo ocurre con la IA. Es, por supuesto, enormemente más compleja que una calculadora y tiene la capacidad añadida de crear sus propias categorías y encontrar relaciones inductivamente, pero no «tiene opiniones basadas en [su propia] razón». Sólo genera predictivamente respuestas que, basándose en los textos que ya ha procesado, es estadísticamente probable que sean las que produciría (o al menos podría producir) un humano. Por eso, a veces, a pesar de los vastos conocimientos a los que tiene acceso, la IA escupe sandeces y le cuesta atenerse a la verdad. Sencillamente, no sabe distinguir. (No puede «distinguir» en absoluto).

En otras palabras, la IA es lógicamente lo contrario de lo que cabría esperar de una inteligencia humana (o alienígena o artificial): mira hacia atrás, inventa respuestas basadas en datos lingüísticos ya existentes y no añade nada que no sea estadísticamente (re)producible a partir de información pasada. Además, no falla ni olvida, y carece de subjetividad.

Por supuesto, una inteligencia real también se basaría en la experiencia, pero tendría la capacidad de generar contenidos e implicaciones novedosos. Una inteligencia real olvidaría información valiosa, cometería errores y utilizaría inferencias erróneas, y sopesaría e interpretaría los hechos de forma subjetiva, o decidiría ignorar los datos.

Sin embargo, aunque la IA no sea una inteligencia, al menos en el sentido de la ciencia ficción, no significa que carezca de importancia o implicaciones. El avance tecnológico que representa es nada menos que revolucionario y tendrá implicaciones de gran alcance tanto para la economía como para la sociedad.

image/svg+xml
Note: The views expressed on Mises.org are not necessarily those of the Mises Institute.
What is the Mises Institute?

The Mises Institute is a non-profit organization that exists to promote teaching and research in the Austrian School of economics, individual freedom, honest history, and international peace, in the tradition of Ludwig von Mises and Murray N. Rothbard. 

Non-political, non-partisan, and non-PC, we advocate a radical shift in the intellectual climate, away from statism and toward a private property order. We believe that our foundational ideas are of permanent value, and oppose all efforts at compromise, sellout, and amalgamation of these ideas with fashionable political, cultural, and social doctrines inimical to their spirit.

Become a Member
Mises Institute