Noticias

¿OpenAI está ahorrando mil millones… a costa de la seguridad?

12 septiembre 2025

OpenAI podría ahorrar hasta 1.860 millones de dólares con el router de GPT-5, pero ¿a costa de la seguridad? Analizamos los riesgos de jailbreaks, alucinaciones y modelos menos robustos en ciberseguridad.

GPT-5 y el enrutador de IA: eficiencia frente a ciberseguridad

La llegada de GPT-5 de OpenAI ha marcado un punto de inflexión en la evolución de la inteligencia artificial. Una de sus novedades más controvertidas es el sistema de enrutamiento inteligente o AI Router, encargado de decidir automáticamente si una consulta debe ser respondida por GPT-5 Pro o por modelos anteriores como GPT-4o, GPT-3.5 o versiones nano/mini.

El objetivo es claro: optimizar costes y eficiencia. Según estimaciones, este sistema permitiría a OpenAI ahorrar hasta 1.860 millones de dólares al año.

Sin embargo, la eficiencia plantea un dilema: ¿está la seguridad quedando en segundo plano?

Los riesgos de depender de modelos menos seguros

En ciberseguridad existe una máxima: la fortaleza de un sistema se mide por su eslabón más débil. Aplicado a la IA, significa que la seguridad global de GPT-5 no depende del modelo Pro, sino del modelo menos robusto al que el router pueda redirigir la consulta.

Esto introduce riesgos críticos:

  • Reactivación de jailbreaks: técnicas de prompt injection que ya estaban mitigadas en GPT-5 pero siguen activas en modelos antiguos.
  • Mayor probabilidad de alucinaciones: respuestas incorrectas o inventadas que pueden impactar en entornos empresariales críticos.
  • Opacidad en la trazabilidad: los usuarios no siempre saben si han recibido respuesta de GPT-5 Pro o de un modelo secundario, complicando auditorías y cumplimiento normativo.

Impacto para empresas y sectores regulados

En un contexto en el que cada vez más organizaciones integran IA en procesos críticos, desde la banca hasta la sanidad, esta arquitectura supone un desafío. La pregunta clave es:

¿Qué pesa más, el ahorro de costes o la seguridad de la información?

La experiencia en ciberseguridad demuestra que el coste de un incidente supera con creces cualquier ahorro previo. Un solo ataque aprovechando un jailbreak reactivado puede comprometer datos sensibles, sistemas corporativos o incluso generar riesgos legales en sectores regulados.

Buenas prácticas y recomendaciones

Para mitigar estos riesgos, las empresas que utilicen GPT-5 o servicios basados en IA generativa deberían:

  • Exigir transparencia sobre qué modelo responde cada interacción.
  • Implementar controles de validación adicionales en entornos críticos.
  • Monitorizar posibles alucinaciones y desviaciones de seguridad en outputs.
  • Considerar el riesgo normativo y de compliance en sectores sujetos a regulaciones como DORA o el Cyber Resilience Act.

¿Seguridad o ahorro?

El AI Router de GPT-5 abre un debate necesario: la eficiencia económica no debe comprometer la seguridad. A corto plazo, OpenAI puede ahorrar miles de millones, pero a medio plazo, las empresas que dependen de estos sistemas pueden enfrentarse a costes mucho mayores derivados de incidentes de ciberseguridad.

La verdadera cuestión no es cuánto ahorra OpenAI, sino:

¿Qué precio están dispuestas a pagar las empresas por confiar en un modelo que prioriza el coste frente a la seguridad?

En Ciberso ayudamos a las organizaciones a evaluar la seguridad de los LLMs y a diseñar arquitecturas de IA resilientes y seguras.

Si tu empresa quiere integrar IA de forma confiable, contáctanos y estaremos encantados de ayudarte a encontrar la solución más segura para tu negocio.

Solicita más información

Si necesitas contactar con nosotros puedes rellenar formulario a continuación. Nos pondremos en contacto contigo lo antes posible.