OpenAI lanza un centro para evaluar la seguridad de sus modelos de inteligencia artificial
OpenAI ha dado un paso decisivo en su compromiso con la seguridad y la transparencia al anunciar la creación del Safety Evaluations Hub, un nuevo centro dedicado a la evaluación del comportamiento y el rendimiento de sus modelos de inteligencia artificial.
Este organismo no solo se encargará de realizar análisis técnicos detallados, sino que también compartirá públicamente los resultados, con el objetivo de garantizar un uso responsable y seguro de la tecnología desarrollada por la compañía.
Evaluación rigurosa en cuatro áreas clave
El Safety Evaluations Hub tendrá como misión central examinar el desempeño de los modelos de OpenAI en cuatro ámbitos fundamentales: la generación de contenido dañino, la capacidad de sortear restricciones mediante técnicas de jailbreak, la aparición de alucinaciones (errores factuales en las respuestas) y el cumplimiento de las jerarquías de instrucciones.
De este modo, OpenAI busca fortalecer el control sobre los contenidos y la fiabilidad de las respuestas, minimizando los riesgos asociados al mal uso de sus modelos.
Prevención de usos indebidos y mejora continua
Una de las prioridades del centro será impedir que los modelos respondan a solicitudes que violen las políticas de uso de OpenAI. Asimismo, se trabajará para detectar intentos de manipulación que intenten eludir las protecciones integradas en el sistema.
Otra función destacada del Safety Evaluations Hub será la identificación y corrección de errores en las respuestas generadas por la IA, garantizando que las prioridades establecidas por la compañía se respeten en el tratamiento de las diferentes categorías de mensajes.
Tarjetas de sistema y evolución constante
Las evaluaciones incorporan las llamadas tarjetas de sistema, una herramienta clave que permite documentar las métricas de seguridad aplicadas en cada lanzamiento. Estas tarjetas no solo informan al público sobre el estado actual de los modelos, sino que también sirven como referencia interna para la toma de decisiones sobre nuevas implementaciones.
Desde OpenAI subrayan que el proceso de evaluación está en permanente desarrollo.
“A medida que los modelos se vuelven más capaces y adaptables, los métodos antiguos dejan de ser eficaces para mostrar diferencias significativas. Por ello, actualizamos periódicamente nuestros métodos de evaluación para considerar nuevas modalidades y riesgos emergentes”, explica la compañía en su sitio web oficial.
Con este nuevo centro, OpenAI reafirma su apuesta por una inteligencia artificial segura, transparente y alineada con los valores éticos que rigen el desarrollo tecnológico responsable. GuadaRed, periódico digital de la provincia de Guadalajara, te acerca lo último en innovación y tecnología, manteniéndote siempre informado sobre los avances que están marcando el futuro.
Jailbreaking: qué es, cómo funciona, ventajas, riesgos y si vale la pena en 2025
Apple vs. Google: la guerra por la supremacía en IA en 2025 sacude el mundo tech
WhatsApp incorpora IA de Meta sin comprometer la privacidad: así funciona el procesamiento privado
¿Qué es el secuestro de cookies de sesión y cómo protegerte de este ciberataque?








