Ai no tiene que razones para tomar tu trabajo

En 2023, una perspectiva popular sobre la IA fue así: claro, puede generar mucho texto impresionante, pero realmente no puede razonar: todo es mimetismo superficial, solo chaqueteo de «loros estocásticos».

En ese momento, era fácil ver de dónde venía esta perspectiva. La inteligencia artificial tuvo momentos de ser impresionante e interesante, pero también falló constantemente tareas básicas. Los CEO de tecnología dijeron que podrían seguir haciendo que los modelos sean más grandes y mejores, pero los CEO de tecnología dicen cosas así todo el tiempo, incluso cuando, detrás de escena, todo se mantiene unido con pegamento, cinta adhesiva y trabajadores de bajos salarios.

Ahora es 2025. Todavía escucho mucho esta perspectiva despectiva, particularmente cuando hablo con académicos en lingüística y filosofía. Muchos de los esfuerzos de más alto perfil para hacer estallar la burbuja de IA, como el reciente Paper Paper que pretende descubrir que AIS realmente no puede razonar, demoras en la afirmación de que los modelos son solo generadores de mierda que no están mejorando mucho y que no mejorarán mucho.

Pero cada vez más creo que repetir esas afirmaciones es un mal servicio a nuestros lectores, y que el mundo académico no puede avanzar y lidiar con las implicaciones más importantes de la IA.

Sé que es una afirmación audaz. Así que déjame respaldarlo.

«La ilusión del pensamiento» ilusión de relevancia

En el instante en que el Paper de Apple se publicó en línea (aún no ha sido revisado por pares), despegó. Los videos explicaban que acumularon millones de vistas. Las personas que generalmente no leen mucho sobre la IA escucharon sobre el papel de Apple. Y aunque el documento en sí reconoció que el rendimiento de la IA en las tareas de «dificultad moderada» estaba mejorando, muchos resúmenes de sus conclusiones se centraron en el reclamo principal de «una limitación de escala fundamental en las capacidades de pensamiento de los modelos de razonamiento actuales».

Para gran parte de la audiencia, el documento confirmó algo que querían creer: esa IA generativa realmente no funciona, y eso es algo que no cambiará en el corto plazo.

El documento analiza el rendimiento de los modelos modernos de idiomas de primer nivel en «tareas de razonamiento», básicamente, rompecabezas complicados. Más allá de cierto punto, ese rendimiento se vuelve terrible, que según los autores demuestra que los modelos no han desarrollado una verdadera planificación y habilidades de resolución de problemas. «Estos modelos no logran desarrollar capacidades generalizables de resolución de problemas para la planificación de tareas, con el rendimiento colapsando a cero más allá de un cierto umbral de complejidad», como escriben los autores.

Esa fue la conclusión de la línea superior que muchas personas tomaron del periódico y la discusión más amplia al respecto. Pero si cavas en los detalles, verás que este hallazgo no es sorprendente, y en realidad no dice mucho sobre la IA.

Gran parte de la razón por la cual los modelos fallan en el problema dado en el documento no es porque no pueden resolverlo, sino porque no pueden expresar sus respuestas en el formato específico que los autores eligieron requerir.

Si les pide que escriban un programa que genere la respuesta correcta, lo hacen sin esfuerzo. Por el contrario, si les pide que proporcionen la respuesta en texto, línea por línea, eventualmente alcanzan sus límites.

Parece una limitación interesante para los modelos AI actuales, pero no tiene mucho que ver con «capacidades generalizables de resolución de problemas» o «tareas de planificación».

Imagine a alguien argumentando que los humanos no pueden «realmente» hacer una multiplicación «generalizable» porque, si bien podemos calcular problemas de multiplicación de 2 dígitos sin ningún problema, la mayoría de nosotros lo arruinaremos en algún lugar del camino si estamos tratando de hacer problemas de multiplicación de 10 dígitos en nuestras cabezas. El problema no es que «no somos razonadores generales». Es que no estamos evolucionados para hacer malabares con grandes números en nuestras cabezas, en gran parte porque nunca necesitamos hacerlo.

Si la razón por la que nos importa «si la razón AIS» es fundamentalmente filosófica, entonces explorar en qué punto los problemas tienen demasiado tiempo para que ellos resuelvan es relevante, como un argumento filosófico. Pero creo que a la mayoría de las personas les importa lo que la IA puede y no puede hacer por razones mucho más prácticas.

AI está tomando su trabajo, ya sea «realmente razonar» o no

Espero que mi trabajo se automatice en los próximos años. No quiero que eso suceda, obviamente. Pero puedo ver la escritura en la pared. Regularmente le pido al AIS que escriba este boletín, solo para ver dónde está la competencia. Todavía no está allí, pero está mejorando todo el tiempo.

Los empleadores también lo están haciendo. La contratación de nivel de entrada en profesiones como la ley, donde las tareas de nivel de entrada son AI-Automatables, parece estar contratando. El mercado laboral para los recientes graduados universitarios se ve feo.

El caso optimista sobre lo que está sucediendo es algo así: «Claro, la IA eliminará muchos trabajos, pero creará aún más trabajos nuevos». Esa transición más positiva podría suceder, aunque no quiero contar con ella, pero aún significaría que muchas personas encuentran abruptamente todas sus habilidades y entrenamiento de repente inútil y, por lo tanto, necesitan desarrollar rápidamente un conjunto de habilidades completamente nuevo.

Es esta posibilidad, creo, la que se avecina para muchas personas en industrias como la mía, que ya están viendo reemplazos de IA. Queremos escuchar que nuestros trabajos son seguros y que los AIS son una noblegadora.

Pero, de hecho, no puede responder a la pregunta de si AI tomará su trabajo con referencia a un experimento mental, o con referencia a cómo funciona cuando se le pide que escriba todos los pasos de los rompecabezas de Tower of Hanoi. La forma de responder la pregunta de si AI tomará su trabajo es invitarlo a intentarlo. Y, uh, esto es lo que obtuve cuando le pedí a ChatGPT que escribiera esta sección de este boletín:

¿Es «realmente razonamiento»? Tal vez no. Pero no es necesario que me haga potencialmente desempleado.

«Si están simulando o no que el pensamiento no influye en si las máquinas son capaces de reorganizar el mundo para bien o para mal», argumentó el profesor de AI de AI y la gobernanza Harry Law en una pieza reciente, y creo que tiene razón inequívoca. Si Diario Angelopolitano me entrega un resbalón rosa, no creo que llegue a ningún lado si sostengo que no debería ser reemplazado porque O3, arriba, no puede resolver una torres de rompecabezas de Hanoi suficientemente complicadas, lo cual, adivina qué, tampoco puedo hacer.

Los críticos se hacen irrelevantes cuando los necesitamos más

En su pieza, la ley examina el estado de las críticas de IA y lo encuentra bastante sombrío. «Mucha escritura crítica reciente sobre AI … lea como un pensamiento extremadamente ilusorio sobre lo que exactamente los sistemas pueden y no pueden hacer».

Esta es mi experiencia también. Los críticos a menudo están atrapados en 2023, dando relatos de lo que AI puede y no puede hacer que no haya sido correcto durante dos años. «A muchos (académicos) no les gusta la IA, por lo que no lo siguen de cerca», argumenta Law. «No lo siguen de cerca, por lo que todavía piensan que las críticas de 2023 mantienen agua. No lo hacen. Y eso es lamentable porque los académicos tienen contribuciones importantes que hacer».

Pero, por supuesto, para los efectos laborales de la IA, y a largo plazo, para las preocupaciones de riesgo catastrófico global que pueden presentar, lo que importa no es si los AI pueden ser inducidos a cometer errores tontos, sino lo que pueden hacer cuando se crean para el éxito.

Tengo mi propia lista de problemas «fáciles» que AIS todavía no puede resolver, son bastante malos en los rompecabezas de ajedrez, pero no creo que ese tipo de trabajo se venda al público como una visión de la «verdad real» sobre la IA. Y definitivamente no desacredita el futuro realmente aterrador en el que los expertos creen cada vez más hacia el que nos dirigimos.