Los sistemas de IA se volverán inútiles si continúan aprendiendo de otros sistemas de IA

Los chatbots utilizan modelos estadísticos del lenguaje humano para predecir qué palabras deben aparecer a continuación

Lawrence Dutton/Getty Images

Una IA que se entrena con texto e imágenes de otros sistemas de IA, y que a su vez ha sido entrenada en la salida de IA, puede eventualmente volverse funcionalmente inútil.

Los sistemas de inteligencia artificial como ChatGPT, conocidos como Large Language Models (LLM), utilizan enormes depósitos de texto escrito por humanos de Internet para crear un modelo estadístico del lenguaje humano, de modo que puedan predecir qué palabras tienen más probabilidades de aparecer a continuación en una oración. . Debido a su disponibilidad, Internet se ha inundado de texto generado por IA, pero el impacto que esto tendrá en los futuros sistemas de IA no está claro.

Ahora, Ilya Shumailov de la Universidad de Oxford y sus colegas han descubierto que los modelos de IA entrenados con el resultado de otros sistemas de IA se vuelven demasiado sesgados, demasiado simples y desconectados de la realidad, un problema que llaman colapso del modelo.

Esta falla se debe a la forma en que los modelos de IA representan el texto estadísticamente. Una IA que ve una frase u oración varias veces tiene más probabilidades de repetir esa frase en la salida y es menos probable que produzca algo que rara vez vio. Cuando los nuevos modelos se entrenan con scripts de otros sistemas de IA, solo ven una pequeña fracción de la salida potencial original de la IA. Es poco probable que este subconjunto tenga resultados más raros, por lo que la nueva IA no lo analizará en sus resultados potenciales.

El modelo tampoco tiene forma de saberlo. Si el texto que ve la IA coincide con la realidad, lo que podría proporcionar información más engañosa que los modelos actuales.

La falta de datos de entrenamiento suficientemente diversos se ve exacerbada por las deficiencias de los propios modelos y la forma en que se entrenan, que no siempre es completamente representativo de los datos subyacentes en primer lugar. Shumilov y su equipo han demostrado que esto conduce al colapso del modelo para una variedad de modelos de IA diferentes. “Debido a que este proceso se repite, eventualmente convergemos en esta locura donde solo hay errores y errores, y la escala de errores es mucho mayor que cualquier otra cosa”, dice Shumailov.

La rapidez con que ocurra este proceso depende de la cantidad de contenido generado por IA que se encuentre en los datos de entrenamiento de IA y el tipo de modelo que esté usando, pero todos los modelos expuestos a los datos de IA parecen fallar eventualmente.

La única forma de evitar esto, dice Shumailov, es nombrar y excluir los resultados generados por IA. Pero es imposible hacerlo de manera confiable, a menos que tenga una interfaz en la que se sepa que los humanos ingresan texto, como la interfaz ChatGPT de Google o OpenAI, una dinámica que podría solidificar las ventajas financieras y de computación que ya son significativas para las grandes empresas de tecnología.

Algunos de los errores pueden mitigarse instruyendo a la IA para que dé preferencia a los datos de entrenamiento antes de que el contenido de la IA inunde la web, dice Venu Sadasivan de la Universidad de Maryland.

También es posible que los humanos no publiquen contenido de IA en línea sin editarlo ellos mismos primero, dice Florian Trammer del Instituto Federal Suizo de Tecnología en Zúrich. “Incluso si el LLM en sí está sesgado en algunos aspectos, la estimulación humana y el proceso de filtrado pueden mitigar esto para hacer que el resultado final se acerque más al sesgo humano original”, dice.

Hilos: