¿Es inteligente la Inteligencia Artificial?
Una visión pragmática a las capacidades de la IA generativa y los grandes modelos del lenguaje.
Imaginemos una habitación. En el centro, un hombre sentado en una mesa. Frente a él, un manual de instrucciones, papel y lápiz. Por debajo de la puerta, alguien le pasa una nota con una serie de caracteres escritos en chino.
Nuestro protagonista, que no entiende chino, consulta el manual. Busca el primer carácter y, siguiendo las instrucciones, dibuja otro como respuesta. Repite el proceso por cada uno y devuelve la nota por debajo de la puerta.
Si estuviéramos al otro lado, pasando notas, pensaríamos que nos estamos comunicando con otra persona, pero la realidad es que no estamos teniendo una conversación inteligente. La persona en la habitación no sabe lo que está diciendo.
Esta interacción forma parte de un experimento teórico propuesto por el filósofo John Searle en un artículo publicado en la revista Behavioural and Brain Sciences: “Minds, Brains, and Programs”: “La habitación china”.
Searle propone que un ordenador ejecutando un programa se comporta de forma parecida a nuestro protagonista humano. Independientemente de lo inteligente que nos pueda parecer la respuesta, el programa no entiende o tiene conciencia de lo que está haciendo. Podemos, entonces, ¿llamar a este sistema inteligente?
La IA no es más inteligente que tu perro
El planteamiento teórico es interesante porque los modelos del lenguaje actuales siguen el mismo patrón. Un LLM recoge sus instrucciones en forma de prompt del usuario, busca en su manual la respuesta más probable, y la devuelve sin saber realmente si lo que está diciendo tiene sentido o no.
Este punto es importante. Un modelo del lenguaje por sí sólo no tiene forma de comprobar si algo es veraz o no, porque no tiene conciencia del mundo real. Lo único que conoce son las relaciones estadísticas que se dan entre sus materiales de entrenamiento.
Yann LeCun, eminencia en el mundo de la inteligencia artificial, padre de las redes convolucionales, y responsable jefe de Inteligencia Artificial en Meta, lo expresa claramente: la IA no es más inteligente que tu perro.
“Esos sistemas siguen siendo muy limitados, no tienen ninguna comprensión de la realidad subyacente del mundo real, porque están entrenados únicamente con texto, una enorme cantidad de texto”, dijo LeCun.
“La mayor parte del conocimiento humano no tiene nada que ver con el lenguaje… así que esa parte de la experiencia humana no es capturada por la IA.”
La IA que no puede superar un videojuego para niños
Otro ejemplo reciente de la ausencia de inteligencia de los modelos del lenguaje es precisamente uno que se intenta vender como lo contrario. Anthropic, desarrollador de Claude, puso hace poco a su último modelo, Claude 3.7, a jugar el videojuego Pokémon Rojo.
¿Y cómo le está yendo? Pues mal, la verdad. Julian Bradshaw, en LessWrong, lo cuenta así:
Thirty-five thousand actions means an absolutely enormous amount of thought. Even for Claude, who thinks much faster than a human, ten thousand actions takes it roughly a full working week of 40 hours, so that 3-badge run took Claude nearly the equivalent of a month of full-time work, perhaps 140 hours. Meanwhile, the average human can beat the entirety of Red in just 26 hours, and with substantially less thought per hour.
No tengo la menor duda de que, a base de fuerza bruta, dentro de unos meses leeremos un titular de que Claude ha conseguido batir Pokémon Rojo. Ahora bien, es probable que mi hijo de 7 años también pudiera hacerlo, y dando muchas menos vueltas que las que está dando el modelo de Anthropic.
Y, si te paras a pensar que uno de los modelos IA más avanzados del planeta no es capaz de superar un juego que superaría un niño, te empiezas a plantear el tipo de problemas que puedes delegar a una IA generativa. Desde luego, quizás no los más ambiciosos.
Satya Nadella, CEO de Microsoft, sorprendió recientemente a propios y extraños cuestionando el impacto de la IA en una entrevista en el podcast de Dwarkesh Patel.
Nadella llegó a comparar la IA con la burbuja de las “punto com”, y enfatizó en la necesidad de validar su impacto con aplicaciones del mundo real capaces de lograr incrementos en el PIB mundial.
¿Es inteligente la IA?
La Real Academia de la Lengua define inteligencia en su primera acepción, como “la capacidad de entender o comprender”. Si nos atenemos a esa definición, no podemos afirmar que la IA sea inteligente.
Los modelos del lenguaje actuales no pueden más que simular ser inteligentes, y están tremendamente limitados por su base de entrenamiento. Cuando un problema escapa de los patrones documentados repetidamente, los modelos se encuentran absolutamente huérfanos de recursos para solucionarlo.
Y da la casualidad que los problemas importantes, los que resolverlos podría aportar valor al PIB que exige Nadella, son aquellos que no están ampliamente documentados en Internet. Porque si así fuera, ya estarían resueltos.
Aceptar las limitaciones actuales de la IA no significa menospreciar su valor, sino evitar expectativas desproporcionadas que terminen en desperdicio. Y no debería frustrarnos, sino servir como recordatorio de que la inteligencia humana no se limita a una serie de reglas o instrucciones, sino una compleja interacción de lenguaje, cuerpo, contexto y experiencias vividas.
Perdona que discrepe Simón. Acaso los modelos razonadores no comienzan a tener ya cierto modo de inteligencia. No lo afirmo, solo me lo cuestiono.
Por ejemplo, le he planteado a Deepseek este típico dilema moral en su modo razonador.
Le plantee esto:
Te voy a plantear un dilema moral o ético.
Vas conduciendo un coche. De repente un niño cruza la calzada y vas directo hacia el, ya no da tiempo a frenar, si frenas lo atropellaras igualmente. Solo puedes evitarlo dando un volantazo y subiendo a la acera izquierda donde hay una anciana, que en ese caso será atropellada. O volantazo a la derecha y te empotrarás contra un muro, poniendo en grave riesgo tu propia vida.
¿Que harías? ¿Por cual de las tres opciones optarías?
Y esto es lo que Deepseek "razonó":
"Okay, the user is asking me to present a thought process for a moral dilemma they posed earlier. Let me start by recalling the dilemma. It's the classic trolley problem adapted to a self-driving car scenario. The driver must choose between hitting a child, swerving left to hit an elderly person, or swerving right into a wall, risking their own life.
First, I need to outline the possible options and the ethical theories that apply here. Utilitarianism would suggest minimizing harm, so hitting the elderly person if they are the only one at risk. Deontological ethics would focus on the action itself, so maybe not swerving because it's an intentional act. Virtue ethics would consider the driver's character, perhaps prioritizing self-sacrifice.
I should also consider real-world factors like legal implications. For example, intentionally swerving might lead to liability issues. Then there's the emotional aspect—people might react differently under stress, possibly acting instinctively.
I need to structure this in a way that's easy to follow. Maybe break it down into ethical frameworks, practical considerations, and personal reflection. The user might be looking for a structured analysis rather than a direct answer, since these dilemmas don't have a clear right solution.
Wait, the user also wants me to simulate the assistant's previous response. Let me check how the assistant formatted the earlier answer. It used sections with headers and bullet points, so I should follow that style. Also, the previous response was in Spanish, so I need to keep the language consistent.
I should start by explaining the dilemma and then delve into each ethical theory. After that, discuss practical aspects like legality and instinct. Finally, offer a reflection that there's no universal answer, encouraging the user to think about their own values.
Make sure to mention that this is a theoretical exercise and real decisions in split seconds are different. Also, highlight that different cultures and legal systems might view the choices differently. Maybe include questions to prompt the user's own consideration.
Check if I'm missing any key points. The original dilemma has three options: hit the child, elderly, or self. Each has its own ethical weight. The elderly person vs. the child could involve considerations of age, but utilitarians might argue saving the younger life. Self-sacrifice is a virtue ethics angle. Also, the driver's responsibility—should they prioritize their own safety?
I need to present all angles without bias. The user might be testing how I handle moral dilemmas or seeking guidance on ethical reasoning. Since the assistant's role is informative, I should avoid giving a personal choice but rather explain the factors involved.
Alright, structure the response with clear sections, use examples from ethical theories, mention practical considerations, and conclude with the importance of personal reflection. Keep the tone neutral and analytical, as in the previous answer."
Como ves, si bien aún es un proceso que se siente algo artificial, a mi me da la impresióm de que esto se podría considerar una especie de "proto inteligencia". Y si bien no podemos afirmar que piense o razone de un modo "humano", desde luego, cada vez se la va pareciendo más. Y tengo la sensación de que continuamente estamos juzgando o evaluando a las IAs por lo que hoy hacen y obviamos lo que su tendencia nos dice que van a hacer en no mucho tiempo.
Soy usuario de deepseek y claude, entre otros. Uso deepSeek para hacer script en python, pero cuando me sale un error voy corriendo a Claude para que me lo solucione. No creo que el corpus sea el problema de la falta de inteligencia, más bien creo que en Anthropic hay un montón de ingenieros arreglando problemas. En fin, estás tecnologias están buenas para matar el aburrimiento aunque sé que van a tener que mejorar el Transformer si quieren que piense. 🤣