Imágenes de abuso sexual infantil han sido descubiertas en una enorme base de datos utilizada para entrenar populares generadores de imágenes con inteligencia artificial (IA), como Stable Diffusion, reveló un nuevo estudio del Observatorio de Internet de Stanford publicado este miércoles.

Se pensaba que las herramientas de IA generativa producían este tipo de material explícito combinando pornografía de adultos y fotografías genéricas de niños, obtenidas en la Red.

No obstante, el Observatorio encontró 3.226 imágenes de presuntos abusos sexuales infantiles en la base de datos de IA LAION-5B. Con la ayuda de organizaciones benéficas contra el abuso infantil, se pudo confirmar que dicho material en efecto retrata explícitamente a menores.

Tras la publicación del informe, LAION dijo en un comunicado, citado por AP, que retiró temporalmente sus conjuntos de datos “para garantizar que sean seguros antes de volver a publicarlos”.

Respecto a Stable Diffusion, si bien su versión más reciente, Stable Diffusion 2.0, hace más difícil para los usuarios crear contenido nocivo, la versión anterior —Stable Diffusion 1.5 introducida el año pasado— genera contenido explícito y es “el modelo más popular para generar contenido explícito”, según el estudio.

“La solución más obvia es que la mayoría de los que poseen conjuntos de entrenamiento derivados de LAION-5B los borren o trabajen con intermediarios para limpiar el material”, señalan los investigadores, pidiendo “considerar obsoletos” y “cesar la producción” de los modelos basados en Stable Diffusion 1.5.

Publicidad