Existe una solución para los ensayos generados por IA. ¿Por qué no la usamos?

Es el comienzo del año escolar y, por lo tanto, el comienzo de una nueva ronda de debates sobre el nuevo papel de la IA generativa en las escuelas. En el espacio de unos tres años, los ensayos han pasado de ser un pilar de la educación en las aulas en todas partes a una herramienta mucho menos útil, por una razón: ChatGPT. Las estimaciones sobre cuántos estudiantes usan ChatGPT para ensayos varían, pero es lo suficientemente común como para obligar a los maestros a adaptarse.

Si bien la IA generativa tiene muchas limitaciones, los ensayos de los estudiantes entran en la categoría de servicios en los que son muy buenos: hay muchos ejemplos de ensayos sobre los temas asignados en sus datos de entrenamiento, existe una demanda de un enorme volumen de dichos ensayos y los estándares de calidad de la prosa y la investigación original en los ensayos de los estudiantes no son tan altos.

En la actualidad, es difícil detectar las trampas en los ensayos mediante el uso de herramientas de inteligencia artificial. Varias herramientas anuncian que pueden verificar que el texto está generado por inteligencia artificial, pero no son muy confiables. Dado que acusar falsamente a los estudiantes de plagio es un gran problema, estas herramientas tendrían que ser extremadamente precisas para funcionar, y simplemente no lo son.

Toma de huellas dactilares de IA con tecnología

Pero existe una solución técnica. En 2022, un equipo de OpenAI, dirigido por el investigador de computación cuántica Scott Aaronson, desarrolló una solución de “marca de agua” que hace que el texto de IA sea prácticamente inconfundible, incluso si el usuario final cambia algunas palabras aquí y allá o reorganiza el texto. La solución es un poco complicada técnicamente, pero tengan paciencia, porque también es muy interesante.

En esencia, la forma en que funciona la generación de texto de IA es que la IA “adivina” un conjunto de posibles tokens siguientes a partir de lo que aparece en un texto hasta el momento. Para no ser demasiado predecibles y producir el mismo resultado repetitivo constantemente, los modelos de IA no solo adivinan el token más probable, sino que incluyen un elemento de aleatorización, favoreciendo las terminaciones “más probables” pero, a veces, seleccionando una menos probable.

En esta etapa, la marca de agua funciona. En lugar de que la IA genere el siguiente token según una selección aleatoria, utiliza un proceso no aleatorio: favorece a los siguientes tokens que obtienen una puntuación alta en una función de «puntuación» interna inventada por OpenAI. Por ejemplo, podría favorecer ligeramente las palabras con la letra V, de modo que el texto generado con esta regla de puntuación tenga un 20 por ciento más de V que el texto humano normal (aunque las funciones de puntuación reales son más complicadas que esto). Los lectores normalmente no notarían esto; de hecho, edité este boletín para aumentar la cantidad de V que contiene, y dudo que esta variación en mi escritura normal haya llamado la atención.

De manera similar, el texto con marca de agua no será, a primera vista, diferente del resultado normal de la IA. Pero sería sencillo para OpenAI, que conoce la regla de puntuación secreta, evaluar si un determinado cuerpo de texto obtiene una puntuación mucho más alta en esa regla de puntuación oculta que la que obtendría un texto generado por humanos. Si, por ejemplo, la regla de puntuación fuera mi ejemplo anterior sobre la letra V, podría ejecutar este boletín a través de un programa de verificación y ver que tiene alrededor de 90 V en 1200 palabras, más de lo que esperaría en función de la frecuencia con la que se utiliza la V en inglés. Es una solución inteligente y técnicamente sofisticada para un problema difícil, y OpenAI ha tenido un prototipo funcional durante dos años.

Por lo tanto, si quisiéramos resolver el problema del texto de IA que se hace pasar por texto escrito por humanos, sería muy posible resolverlo. Pero OpenAI no ha lanzado su sistema de marca de agua, ni tampoco lo ha hecho ningún otro en la industria. ¿Por qué no?

Todo es cuestión de competencia

Si OpenAI (y solo OpenAI) lanzara un sistema de marca de agua para ChatGPT que permitiera saber fácilmente cuándo la IA generativa ha producido un texto, esto no afectaría en lo más mínimo el plagio de ensayos de los estudiantes. La noticia se difundiría rápidamente y todos simplemente cambiarían a una de las muchas opciones de IA disponibles en la actualidad: Llama de Meta, Claude de Anthropic, Gemini de Google. El plagio continuaría sin cesar y OpenAI perdería gran parte de su base de usuarios. Por lo tanto, no es sorprendente que mantuvieran su sistema de marca de agua en secreto.

En una situación como esta, podría parecer apropiado que los reguladores intervinieran. Si se exige que todos los sistemas de IA generativa tengan marcas de agua, entonces no es una desventaja competitiva. Esta es la lógica detrás de un proyecto de ley presentado este año en la Asamblea estatal de California, conocido como California Digital Content Provenance Standards, que requeriría que los proveedores de IA generativa hagan que su contenido generado por IA sea detectable, además de exigir a los proveedores que etiqueten la IA generativa y eliminen el contenido engañoso. OpenAI está a favor del proyecto de ley, lo cual no es sorprendente, ya que es el único proveedor de IA generativa conocido que tiene un sistema que hace esto. Sus rivales en su mayoría se oponen.

En líneas generales, estoy a favor de algún tipo de requisitos de marca de agua para el contenido generado por IA. La IA puede ser increíblemente útil, pero sus usos productivos no requieren que pretenda ser creada por humanos. Y si bien no creo que sea responsabilidad del gobierno prohibir a los periódicos que nos reemplacen a los periodistas por IA, ciertamente no quiero que los medios informen erróneamente a los lectores sobre si el contenido que están leyendo fue creado por humanos reales.

Aunque me gustaría que existiera algún tipo de obligación de incluir marcas de agua, no estoy seguro de que sea posible implementarlo. Los mejores modelos de IA “abiertos” que se han publicado (como el último Llama), modelos que puedes ejecutar tú mismo en tu propia computadora, son de muy alta calidad, ciertamente lo suficientemente buenos para ensayos de estudiantes. Ya están disponibles y no hay forma de volver atrás y agregarles marcas de agua porque cualquiera puede ejecutar las versiones actuales, independientemente de las actualizaciones que se apliquen en versiones futuras. (Esta es una de las muchas formas en que tengo sentimientos encontrados sobre los modelos abiertos. Permiten una enorme cantidad de creatividad, investigación y descubrimiento, y también hacen que sea imposible implementar todo tipo de medidas de sentido común contra la suplantación de identidad o contra el material de abuso sexual infantil que de otro modo realmente nos gustaría tener).

Por lo tanto, aunque es posible utilizar marcas de agua, no creo que podamos contar con ellas, lo que significa que tendremos que encontrar la manera de abordar la ubicuidad de los contenidos generados por IA de forma sencilla como sociedad. Los profesores ya están adoptando la exigencia de redactar ensayos en clase y otros enfoques para reducir las trampas de los estudiantes. Es probable que también veamos un cambio en la eliminación de los ensayos de admisión a la universidad y, sinceramente, será una buena manera de deshacerse de ellos, ya que probablemente nunca fueron una buena forma de seleccionar a los estudiantes.

Pero, aunque no me lamentaré demasiado por el ensayo de admisión a la universidad y creo que los profesores son muy capaces de encontrar mejores formas de evaluar a los estudiantes, sí noto algunas tendencias preocupantes en toda la saga. Había una forma sencilla de permitirnos aprovechar los beneficios de la IA sin desventajas obvias como la suplantación de identidad y el plagio, pero el desarrollo de la IA se produjo tan rápido que la sociedad, más o menos, dejó pasar la oportunidad. Los laboratorios individuales podrían hacerlo, pero no lo harán porque los pondría en desventaja competitiva, y no es probable que haya una buena manera de obligar a todos a hacerlo.

En el debate sobre el plagio en las escuelas, lo que está en juego es poco, pero es probable que se mantenga la misma dinámica que se refleja en el debate sobre las marcas de agua en la inteligencia artificial (donde los incentivos comerciales impiden que las empresas se autorregulen y el ritmo del cambio impide que los reguladores externos intervengan hasta que es demasiado tarde).