INFOCAOS
  • Nacionales
  • Internacionales
  • Política
  • Economía
  • Salud
  • Tecnología
  • Deportes
  • Entretenimiento
No Result
View All Result
INFOCAOS
Home Destacadas

Imágenes de abuso sexual infantil se están usando para entrenar generadores de fotografías por IA

by
21 de diciembre de 2023
in Destacadas
0
Imágenes de abuso sexual infantil se están usando para entrenar generadores de fotografías por IA
585
SHARES
3.2k
VIEWS
Compartir en FacebookCompartir en Twitter

Informe de Stanford destaca 1.679 imágenes de abuso infantil en dataset de IA utilizado por Stability AI para crear Stable Diffusion (Imagen Ilustrativa Infobae)

 

Related posts

«Todos los migrantes que estaban en Guantánamo ya fueron retornados a Venezuela», informó Jorge Rodríguez

Venezuela recibe a otros 185 connacionales provenientes desde Texas, Estados Unidos

17 de septiembre de 2025
Venezuela incauta más de 700K de cocaína en una operación conjunta con un país europeo

Diosdado Cabello: «Hemos incautado 60 mil toneladas de drogas en lo que va del 2025»

17 de septiembre de 2025

Investigadores de Stanford han sacado a la luz la presencia de contenido ilegal en bases de datos de inteligencia artificial. Cuestionamiento sobre el entrenamiento de algoritmos

Un informe del Stanford Internet Observatory ha revelado la presencia de miles de imágenes de abuso sexual infantil en el conocido conjunto de datos LAION-5B, empleado para entrenar generadores de imágenes de IA como Stable Diffusion de Stability AI.

Por Infobae

Este descubrimiento sugiere que las herramientas de IA podrían generar contenidos dañinos y realza la preocupación sobre la seguridad de dichas tecnologías. La entidad LAION, que administra el conjunto de datos, ya ha respondido retirando temporalmente los conjuntos de datos involucrados para una revisión exhaustiva.

Los investigadores del observatorio, en colaboración con el Centro Canadiense de Protección Infantil, inspeccionaron el índice de LAION, que cuenta con aproximadamente 5.8 mil millones de imágenes, y encontraron más de 3,200 imágenes sospechosas de contener abuso sexual infantil. Aproximadamente 1,000 de estas han sido verificadas externamente.

Esto apunta a una debilidad significativa en el proceso de desarrollo rápido y competitivo de proyectos de IA generativa, sin la atención meticulosa adecuada para garantizar la exclusión de este tipo de contenido dañino.

El problema se extiende a la transformación de fotografías de adolescentes en redes sociales en imágenes desnudas y la generación de representaciones explícitas de niños falsos.

Con el desafío de erradicar este contenido inapropiado, se han hecho llamados para que se eliminen o limpien los modelos de IA entrenados con los datos de LAION-5B y se tomen medidas más drásticas para evitar la distribución de versiones problemáticas de Stable Diffusion.

Además, entidades como Hugging Face y CivitAI están bajo el escrutinio para implementar mejores prácticas y controles de seguridad.

Stanford recomienda desechar modelos de IA formados con datos problemáticos para evitar la propagación de imágenes de abuso sexual infantil. (Imagen Ilustrativa Infobae)

 

Stable Diffusion, creado por Stability AI, es una de las herramientas que ha utilizado LAION-5B en su entrenamiento, lo que ha causado preocupación sobre el potencial mal uso de sus modelos. La compañía ha indicado que solo alberga versiones filtradas de Stable Diffusion y que ha tomado medidas proactivas para mitigar el riesgo de mal uso.

En respuesta al informe, se destacan los esfuerzos por mejorar los filtros para detectar y eliminar contenido ilegal antes de su distribución. Sin embargo, se reconoce que podría haberse hecho un mejor trabajo si se hubiera consultado con expertos en seguridad infantil desde etapas tempranas del desarrollo de los modelos.

OpenAI, desarrollador de DALL-E y ChatGPT, ha declarado que no utiliza LAION y ha ajustado sus modelos para rechazar solicitudes que involucren contenidos sexuales con menores. Por su parte, Google decidió no hacer público su modelo Imagen basado en datos de LAION tras hallar contenido inapropiado, incluyendo imágenes pornográficas y estereotipos sociales dañinos.

El uso de imágenes de niños, incluso en contextos inocuos, sin el consentimiento de los familiares, es cuestionado en el informe de Stanford y las autoridades reguladoras de EE. UU. han instado al Congreso a crear una comisión que investigue el impacto de la IA en la explotación infantil y prohíba la creación de CSAM (Child Sexual Abuse Material) generado por IA.

Leer más en Infobae

Previous Post

Guardiola no opina de la Superliga: “El club y los abogados decidirán”

Next Post

Software busca controlar hurto de celulares en Colombia

Next Post
Software busca controlar hurto de celulares en Colombia

Software busca controlar hurto de celulares en Colombia

EXPLORAR POR CATEGORÍAS

  • Deportes
  • Destacadas
  • Economía
  • Entretenimiento
  • Internacionales
  • Nacionales
  • Política
  • Salud
  • Tecnología

NAVEGAR POR TEMAS

Aranceles Brasil Capriles Caracas Chevron china CNE Colombia Delcy Deportes destacada Destacadas Diosdado Economía Ecuador EEUU El Salvador España Francisco Guerra internacional Internacionales Irán Israel lluvias Maduro migrantes MP México nacional nacionales Papa Petro petroleo politica Rusia Sucesos Tren de Aragua Trump Ucrania Vaticano Veenzuela Venezolanos Venezuela Zulia

Noticias recientes

  • Bolsonaro tiene un cáncer de piel «precoz» pero recibe el alta y regresa a su casa-prisión
  • Venezuela recibe a otros 185 connacionales provenientes desde Texas, Estados Unidos
  • Galíndez rechazó acciones de EE.UU. contra Venezuela: «No aportan soluciones»

Categorías

  • Deportes
  • Destacadas
  • Economía
  • Entretenimiento
  • Internacionales
  • Nacionales
  • Política
  • Salud
  • Tecnología
  • Sobre nosotros
  • Publicidad

© 2023 INFOCAOS TODOS LOS DERECHOS RESERVADOS.

  • Inicio
  • Destacadas
  • Nacionales
  • Internacionales
  • Política
  • Economía
  • Salud
  • Tecnología
  • Deportes
  • Entretenimiento