
OpenAI pronto podría requerir que las organizaciones completen un proceso de verificación de identificación para acceder a ciertos modelos de IA futuros, según una página de soporte publicada en el sitio web de la empresa la semana pasada.
El proceso de verificación, llamado Organización Verificada, es 'una nueva forma para que los desarrolladores desbloqueen el acceso a los modelos y capacidades más avanzados en la plataforma de OpenAI', según la página. La verificación requiere una identificación emitida por el gobierno de uno de los países admitidos por la API de OpenAI. Una identificación solo puede verificar una organización cada 90 días, y no todas las organizaciones serán elegibles para la verificación, dice OpenAI.
“En OpenAI, consideramos seriamente nuestra responsabilidad de garantizar que la IA sea tanto ampliamente accesible como utilizada de forma segura”, dice la página. “Desafortunadamente, una pequeña minoría de desarrolladores utiliza intencionalmente las API de OpenAI en violación de nuestras políticas de uso. Estamos agregando el proceso de verificación para mitigar el uso inseguro de la IA mientras continuamos haciendo que los modelos avanzados estén disponibles para la comunidad más amplia de desarrolladores.”
OpenAI lanzó un nuevo estado de Organización Verificada como una nueva forma para que los desarrolladores desbloqueen el acceso a los modelos y capacidades más avanzados en la plataforma, y para estar preparados para el 'próximo emocionante lanzamiento de modelos'.
– La verificación lleva unos minutos y requiere un... pic.twitter.com/zWZs1Oj8vE
— Tibor Blaho (@btibor91) 12 de abril de 2025
El nuevo proceso de verificación podría tener como objetivo reforzar la seguridad en torno a los productos de OpenAI a medida que se vuelven más sofisticados y capaces. La empresa ha publicado varios informes sobre sus esfuerzos para detectar y mitigar el uso malicioso de sus modelos, incluidos grupos presuntamente basados en Corea del Norte.
También podría tener como objetivo prevenir el robo de propiedad intelectual. Según un informe de Bloomberg a principios de este año, OpenAI estaba investigando si un grupo vinculado con DeepSeek, el laboratorio de IA con sede en China, extrajo grandes cantidades de datos a través de su API a fines de 2024, posiblemente para entrenar modelos, lo que viola los términos de OpenAI.
OpenAI bloqueó el acceso a sus servicios en China el verano pasado.