Entidades
Ver todas las entidadesEstadísticas de incidentes
Informes del Incidente
Cronología de Informes
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
En la prensa han aparecido noticias sobre los resultados de un proyecto de investigación de la Universidad de Stanford, según el cual el equipo de entrenamiento LAION 5B contiene contenidos potencialmente ilegales en forma de CSAM. Nos gust…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Una investigación del Stanford Internet Observatory (SIO) identificó cientos de imágenes conocidas de material de abuso sexual infantil (CSAM) en un conjunto de datos abiertos utilizado para entrenar modelos populares de generación de texto…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Un conjunto de datos de entrenamiento popular para la generación de imágenes de IA contenía enlaces a imágenes de abuso infantil, [encontrado por el Observatorio de Internet de Stanford](https://cyber.fsi.stanford.edu/news/investigation-fin…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Se ha descubierto que un enorme conjunto de datos públicos que sirvió como datos de entrenamiento para varios generadores de imágenes de IA contiene miles de casos de material de abuso sexual infantil (CSAM).
En un estudio publicado hoy, el…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
*Este artículo se publica con el apoyo de The Capitol Forum. * La organización que lo creó eliminó el conjunto de datos de aprendizaje automático LAION-5B utilizado por Stable Diffusion y otros productos importantes de IA después de que un …
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Un enorme conjunto de datos de IA de código abierto, LAION-5B, que se ha utilizado para entrenar generadores de texto a imágenes de IA populares como Stable Diffusion 1.5 e Imagen de Google, contiene al menos 1008 casos de material de abuso…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Se han descubierto más de 1.000 imágenes de niños abusados sexualmente dentro del conjunto de datos más grande utilizado para entrenar IA generadora de imágenes, sorprendiendo a todos, excepto a las personas que han advertido sobre este tip…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Stable Diffusion, una de las herramientas de IA generativa de conversión de texto a imagen más populares del mercado de [la startup Stability AI de mil millones de dólares](https://www.forbes.com/sites/kenrickcai/2023/06/04/stable -diffusio…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Investigadores del Observatorio de Internet de Stanford dicen que un conjunto de datos utilizado para entrenar herramientas de generación de imágenes de IA contiene al menos 1.008 casos validados de material de abuso sexual infantil. Los in…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Ha habido problemas importantes con los datos de entrenamiento de AI, con varias quejas ya presentadas por quienes afirmaron que su trabajo fue robado, pero el descubrimiento más reciente vio imágenes de abuso sexual infantil en su conjunto…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Su creador eliminó un conjunto de datos de inteligencia artificial ampliamente utilizado para entrenar Stable Diffusion, Imagen y otros modelos de generación de imágenes de IA después de que un estudio encontró que contenía miles de instanc…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Un influyente conjunto de datos de aprendizaje automático, como el que se ha utilizado para entrenar numerosas aplicaciones populares de generación de imágenes, incluye miles de imágenes sospechosas de abuso sexual infantil, revela un nuevo…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
Se ha localizado material de abuso sexual infantil (CSAM) en LAION, un importante conjunto de datos utilizado para entrenar la IA.
El Observatorio de Internet de Stanford reveló miles de imágenes de abuso sexual infantil en el conjunto de d…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
La integridad de un importante conjunto de datos de entrenamiento de imágenes de IA, LAION-5B, utilizado por modelos de IA influyentes como Stable Diffusion, se ha visto comprometida después del descubrimiento de miles de enlaces a material…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
La IA generativa se ha democratizado. Los kits de herramientas para descargar, configurar, usar y ajustar una variedad de modelos se han convertido en marcos de un clic para que los use cualquier persona con una computadora portátil. Si bie…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
En Los que se alejan de Omelas, la escritora de ficción Ursula K. Le Guin describe una ciudad fantástica donde el avance tecnológico ha asegurado una vida de abundancia para todos los que viven allí. Escondido debajo de la ciudad, donde nad…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-Why are AI companies valued in the millions and billions of dollars creating and distributing tools that can make AI-generated child sexual abuse material (CSAM)?
An image generator called Stable Diffusion version 1.5, which w…
- Ver el informe original en su fuente
- Ver el informe en el Archivo de Internet
translated-es-Artificial intelligence researchers said Friday they have deleted more than 2,000 web links to suspected child sexual abuse imagery from a dataset used to train popular AI image-generator tools.
The LAION research dataset is a…
Variantes
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents
Discrimination in Online Ad Delivery
Incidentes Similares
Did our AI mess up? Flag the unrelated incidents