Get All Access for $5/mo

Más de la mitad del contenido digital es creado por IA, lo que disminuye la calidad de las respuestas El reciclaje de información por parte de modelos de IA está generando respuestas menos precisas.

yaom | Getty Images

Un estudio publicado en la revista Nature revela que el 57% del contenido digital es generado por inteligencia artificial (IA), lo que ha generado preocupación por la constante vulneración de derechos de autor y la disminución en la calidad y el análisis de las respuestas generadas.

El informe, realizado por investigadores de las universidades de Cambridge y Oxford, destaca que la creciente cantidad de contenido creado por IA podría llevar a una degradación en la calidad de las respuestas producidas por modelos de IA, como los chatbots.

Según Ilia Shumailov, investigador de la Universidad de Oxford, el problema radica en que estos sistemas tienden a reciclar información incorrecta generada previamente por otras IA, lo que podría resultar en un ciclo de retroalimentación negativo.

Relacionado: IA vs. humanidad — por qué los humanos siempre ganarán cuando se trata de generar contenido

"Es sorprendente lo rápido que se produce el colapso del modelo y lo difícil que puede ser identificarlo. Al principio, afecta a los datos minoritarios, aquellos que están subrepresentados. Luego, la diversidad de los resultados se ve comprometida, y la varianza se reduce. Esto podría enmascarar una aparente mejora en los datos mayoritarios, pero en realidad oculta una degradación en la precisión de los datos minoritarios", explicó Shumailov.

El estudio concluye que la calidad de las respuestas de los modelos de IA disminuye con cada generación sucesiva de datos.

Además, se presentó un caso en el que una herramienta de IA, entrenada con una biblioteca de información sobre razas de perros, comenzó a omitir información sobre razas menos comunes después de varias rondas de entrenamiento con datos generados por esta tecnología.

En cuanto a la preocupación por el uso de los derechos de autor, Sam Altman, director ejecutivo de OpenAI, admitió que es imposible desarrollar herramientas como ChatGPT sin utilizar contenido protegido.

No obstante, la ley de derechos de autor no prohíbe explícitamente el uso de dicho contenido para entrenar modelos de IA, lo que ha generado un conflicto continuo entre los editores y las empresas de tecnología.

Relacionado: En contenido "basura" de la IA está por todos lados — Te explicamos cómo las empresas pueden romper este ciclo
Entrepreneur en Español

Entrepreneur Staff

Emprendedores

10 grandes frases sobre el poder de las metas

Establecer metas es el primer paso para lograr algo significativo.

Tecnología

Estos son los motivos por los que no es recomendable que una empresa use IA pública

La inteligencia artificial privada se presenta como la opción más segura y estratégica para las empresas latinoamericanas. Aquí te decimos por qué.

Noticias

Grupo Carso empieza a desplazar a Sanborns y da prioridad a DAX

Parece que DAX es la nueva apuesta del conglomerado propiedad del empresario Carlos Slim.

Noticias

La desinformación sin control, el mayor desafío para los jóvenes según Bill Gates

Para el empresario, la propagación de desinformación ha llegado demasiado lejos y ya no hay vuelta atrás.

Noticias

PwC geolocalizará a sus empleados para asegurar el cumplimiento del trabajo presencial

A partir de enero, PwC requerirá que sus colaboradores acudan a la oficina al menos tres veces a la semana.