La Casa Blanca obtiene compromisos voluntarios de proveedores de IA para combatir deepfakes de desnudos

La Casa Blanca informa que varios proveedores importantes de IA se han comprometido a tomar medidas para combatir deepfakes no consensuales y material de abuso sexual infantil.

Adobe, Cohere, Microsoft, Anthropic OpenAI y el proveedor de datos Common Crawl dijeron que "responderán responsablemente" y protegerán los conjuntos de datos que crean y utilizan para entrenar la IA en el abuso sexual basado en imágenes. Estas organizaciones, excepto Common Crawl, también dijeron que incorporarán "bucles de retroalimentación" y estrategias en sus procesos de desarrollo para evitar que la IA genere imágenes de abuso sexual. Y ellos (nuevamente, excepto Common Crawl) dijeron que se comprometerán a eliminar imágenes desnudas de los conjuntos de datos de entrenamiento de la IA "cuando sea apropiado y dependiendo del propósito del modelo".

Es importante tener en cuenta que los compromisos son autocontrolados. Muchos proveedores de IA optaron por no participar (por ejemplo, Midjourney, Stability AI, etc.). Y los compromisos de OpenAI en particular plantean preguntas, dado que el CEO Sam Altman dijo en mayo que la compañía exploraría cómo generar de manera "responsable" pornografía con IA.

No obstante, la Casa Blanca los elogió como un logro en su esfuerzo más amplio para identificar y reducir el daño de los deepfakes de desnudos.