¿Sabías que la inteligencia artificial (IA) podría ser utilizada para crear armas biológicas? Afortunadamente, empresas como OpenAI están trabajando arduamente para prevenir esto. 

En un reciente avance, OpenAI ha implementado nuevas salvaguardas en sus modelos de IA más avanzados, o3 y o4-mini, para evitar que se utilicen en la creación de amenazas biológicas y químicas.

Pero, ¿qué son exactamente estas salvaguardas y por qué son tan importantes? Sigue leyendo y descubre qué son las salvaguardas de la IA, los riesgos generales que conlleva su uso y, en particular, los biorriesgos que tanto preocupan a los expertos.

¿Qué son las salvaguardas de la IA?

Las salvaguardas en IA funcionan como frenos de seguridad: mecanismos que identifican y bloquean usos que podrían resultar dañinos. En el caso de OpenAI, este sistema se denomina safety‑focused reasoning monitor (monitor de razonamiento enfocado en la seguridad).

Este componente personalizado se ejecuta encima de los modelos o3 y o4‑mini, analiza cada consulta y rechaza aquellas relacionadas con riesgos biológicos o químicos, devolviendo una advertencia en lugar de instrucciones peligrosas (techcrunch.com).

Para entrenar este monitor, OpenAI contó con un equipo de red teamers que dedicó cerca de 1.000 horas a identificar conversaciones inseguras y etiquetar miles de ejemplos de solicitudes riesgosas.

De esa forma, el sistema aprende a reconocer patrones que podrían indicar la creación de armas biológicas, toxinas o agentes químicos perjudiciales.

Riesgos generales de la IA

Si bien los biorriesgos atraen la atención por su gravedad, la IA presenta otras amenazas a gran escala que conviene recordar:

  • Sesgos y discriminación: algoritmos entrenados con datos parciales pueden perpetuar prejuicios existentes y afectar de forma adversa a grupos vulnerables.
  • Desplazamiento laboral: la automatización amenaza empleos en manufactura, atención al cliente y otros sectores, generando desafíos sociales y económicos.
  • Deepfakes y desinformación: la creación de contenido audiovisual falsificado puede minar la confianza pública y facilitar campañas de desinformación.
  • Dependencia excesiva: la confianza ciega en sistemas de IA puede erosionar habilidades humanas, como el pensamiento crítico y la resolución de problemas.

Aunque estos riesgos requieren marcos regulatorios y auditorías constantes, los biorriesgos suman una capa de complejidad por su potencial catastrófico.

¿Qué son los biorriesgos?

Los biorriesgos engloban las amenazas derivadas de la manipulación de agentes biológicos. Con la IA, incluso usuarios sin formación especializada podrían diseñar biotoxinas, optimizar agentes infecciosos o incluso crear armas biológicas.

Aunque parezca mentira, los algoritmos de IA pueden analizar secuencias genéticas y predecir mutaciones que incrementen la letalidad o resistencia de patógenos. O podrían identificar combinaciones genéticas que aumenten transmisibilidad, evasión inmunológica o resistencia a tratamientos.

Finalmente, herramientas diseñadas para acelerar descubrimientos médicos pueden reorientarse hacia fines destructivos. Es decir, convertir algo beneficioso en un arma biológica. 

Salvaguardas implementadas por OpenAI

Según el reporte de OpenAI, el monitor de razonamiento ha demostrado una tasa de rechazo del 98,7 % frente a solicitudes de alto riesgo durante pruebas internas. Cuando detecta un patrón peligroso, el sistema detiene la generación de la respuesta y emite un mensaje explicativo, describiendo por qué no puede ayudar en esa consulta.

Además, OpenAI actualizó su Preparedness Framework, un conjunto de directrices para evaluar niveles de riesgo y definir protocolos de actuación:

  • Umbral Alto: si un modelo puede permitir a un usuario principiante replicar amenazas conocidas, se exigen controles adicionales antes de su implementación en producción 
  • Umbral Crítico: si el modelo es capaz de asistir a expertos en el desarrollo de nuevas amenazas altamente peligrosas, su lanzamiento se detiene hasta reforzar las salvaguardas y realizar auditorías exhaustivas

Con esta clasificación, OpenAI decide si procede con la liberación, si retrasa el despliegue para mejorar medidas de seguridad o si descarta el proyecto en su fase actual.

Evaluación continua y desafíos futuros

Aunque el sistema ha tenido éxito en las pruebas, OpenAI reconoce limitaciones clave. En primer lugar existe la posibilidad de evadir los filtros. Las pruebas no simularon a usuarios persistentes que reformulen sus consultas para eludir el monitor.

Por otra parte, a pesar de su automatización, la supervisión de expertos sigue siendo esencial para identificar nuevas tácticas maliciosas. 

Finalmente está la presión competitiva. Algunos han señalado plazos muy ajustados para evaluar modelos, lo que podría comprometer la profundidad de las pruebas. 

Para abordar estos retos, OpenAI colabora con laboratorios como el de Los Álamos y terceros especializados en bioseguridad, refinando continuamente sus clasificadores y protocolos. Asimismo, planea ampliar su red de evaluadores independientes y publicar informes de seguridad con mayor transparencia.

Hacia un uso responsable de la IA

La adopción masiva de la IA exige un equilibrio entre innovación y precaución. Las medidas de OpenAI representan un avance importante, pero no deben entenderse como una solución definitiva. Gobiernos, instituciones académicas y la industria tecnológica deben:

  • Desarrollar marcos regulatorios globales que coordinen estándares de bioseguridad.
  • Fomentar la transparencia mediante la publicación de reportes de seguridad y auditorías independientes.
  • Impulsar la formación en bioética y ciberseguridad para desarrolladores y usuarios de IA.

Solo con un enfoque colaborativo y multidisciplinario podremos aprovechar el potencial de la IA sin exponer a la humanidad a nuevos peligros.

La IA ofrece oportunidades sin precedentes, desde diagnósticos médicos más rápidos hasta optimización de procesos industriales. Pero, como hemos visto, también puede facilitar la creación de amenazas biológicas.

Las salvaguardas de OpenAI son un paso hacia adelante, demostrando que es posible anticiparse a los malos usos de la tecnología. Sin embargo, la seguridad nunca es estática: debemos mantenernos vigilantes y comprometidos con la mejora continua de estos sistemas para asegurar un futuro donde la IA sea una fuerza de progreso y no de destrucción.