El FMI alerta sobre riesgo de ciberataques por IA

El Fondo Monetario Internacional (FMI) ha lanzado una alerta importante. Según su visión, el avance de la Inteligencia Artificial (IA) podría aumentar significativamente el riesgo de ciberataques a gran escala, lo que representa una amenaza para la estabilidad del sistema financiero global. Esto se debe a que estas herramientas avanzadas pueden identificar vulnerabilidades en los sistemas informáticos en un abrir y cerrar de ojos.

En una nota publicada en su blog oficial, el FMI destacó que modelos de IA sofisticados, como Claude Mythos, creado por Anthropic, tienen la capacidad de detectar fallas en la seguridad digital “en poquísimo tiempo”. Esto podría llevar a ataques coordinados que, según la entidad, podrían desencadenar un verdadero “choque macrofinanciero”. Esto afectaría la intermediación de pagos y minaría la confianza en el sistema bancario.

Además, alertaron sobre la posibilidad de “fallos correlacionados”, que se refiere a ataques simultáneos en varias instituciones financieras que comparten los mismos sistemas vulnerables. En este contexto, el FMI considera “inevitable” que los bancos sufran brechas en sus defensas cibernéticas, dado el ritmo acelerado al que la IA mejora la detección de vulnerabilidades.

Por otro lado, la preocupación también surge por la desigualdad en el acceso a herramientas de protección. Grandes empresas como JPMorgan Chase, Amazon y Microsoft ya cuentan con acceso anticipado para implementar actualizaciones de seguridad, mientras que muchos bancos en economías emergentes se encuentran expuestos. Esto añade otra capa de riesgo en un escenario ya complicado.

OpenAI reconoce riesgos de ciberataques en su navegador con IA

OpenAI también se pronunció sobre la cuestión. Reconocieron que su navegador, que incluye agentes de inteligencia artificial en ChatGPT Atlas, no está completamente a salvo de ciberataques. En particular, se refieren a las inyecciones de instrucciones, una técnica que puede alterar el funcionamiento de los sistemas a través de comandos encubiertos en correos electrónicos o páginas web.

Aunque han reforzado las medidas de seguridad, la empresa admitió que este tipo de vulnerabilidades son un problema estructural de la IA generativa y es improbable que se puedan eliminar por completo. El “modo agente” incrementa el riesgo, ya que combina autonomía operativa con acceso a información sensible del usuario, lo que puede resultar peligroso.

OpenAI explicó que esta independencia también los hace más susceptibles a situaciones donde las instrucciones maliciosas pueden pasar desapercibidas y alterar su funcionamiento sin que el usuario intervenga directamente.

La preocupación no solo es de la compañía. Organismos internacionales, como el Centro Nacional de Ciberseguridad del Reino Unido, coinciden en que estas vulnerabilidades probablemente no podrán erradicarse completamente. Por eso, sugieren que las estrategias deben orientarse hacia la mitigación del impacto, en lugar de intentar eliminar el riesgo de forma absoluta.

Botão Voltar ao topo