El uso creciente de herramientas de Inteligencia Artificial (IA) en el entorno empresarial ha demostrado optimizar procesos, mejorar la toma de decisiones y personalizar experiencias para los clientes. Sin embargo, según el informe ‘El estado actual de la ciberseguridad en España 2024’, elaborado por Deloitte, un 69% de las compañías carece de un enfoque reactivo ante las amenazas derivadas de la IA, lo que pone de manifiesto la falta de una estrategia clara de integración.

Sergi Simón, coordinador del Área de Riesgos de EALDE Business School, advierte que «una de las principales tendencias es el uso cada vez más sofisticado de la IA en ataques de ingeniería social, lo que hace que el phishing sea más personalizado y difícil de detectar. Además, la generación de contenido falso mediante IA está socavando la confianza en la información en línea y facilitando la propagación de desinformación».

Roberto Castro, profesor del Máster en Gestión de Riesgos de la escuela de negocios, destaca que «el riesgo más apremiante es la generación automática de malware porque permite aprovechar las vulnerabilidades de un sistema para poder controlarlo y bloquearlo para pedir un rescate». Esta situación plantea desafíos significativos para la seguridad cibernética, ya que la combinación de la sofisticación de los ataques basados en IA y la dependencia cada vez mayor de esta tecnología en diversos sectores representa un desafío crítico para las empresas.

Estrategias para mitigar riesgos asociados a la IA

Ante estos desafíos, las empresas deben implementar medidas proactivas para mitigar los riesgos asociados a la IA en ciberseguridad. Sergi Simón sugiere que «las organizaciones deberían implementar medidas como la evaluación continua de vulnerabilidades, la capacitación del personal en ciberseguridad y la implementación de soluciones de defensa avanzadas».

Además, la colaboración entre el sector público y privado es esencial para compartir información sobre amenazas y desarrollar estrategias conjuntas de defensa. Según Roberto Castro, «el sector público puede proporcionar regulaciones, orientación y recursos, mientras que el sector privado puede aportar experiencia técnica y conocimientos de mercado». Ejemplo de esta colaboración es la participación de CaixaBank en proyectos financiados por la Comisión Europea para mejorar sus capacidades de detección y respuesta ante amenazas.

El futuro de la interacción entre IA y ciberseguridad

Mirando hacia el futuro, los expertos anticipan una evolución significativa en los ciberriesgos y la interacción entre la inteligencia artificial y la ciberseguridad, especialmente con la llegada de lacomputación cuántica. Sergi Simón advierte que con la computación cuántica surgirán nuevos desafíos y oportunidades en la seguridad cibernética, lo que requerirá el desarrollo de métodos de protección cibernética cuánticamente seguros.

Por otro lado, se espera que la IA continúe desempeñando un papel crucial en la detección y prevención de ataques, pero también podría ser utilizada por los adversarios para desarrollar ataquesmás sofisticados y difíciles de detectar.

Ética y privacidad en el uso de IA en ciberseguridad

En el contexto del creciente uso de inteligencia artificial en ciberseguridad, es fundamental priorizar los principios éticos y proteger la privacidad de los usuarios. Sergi Simón enfatiza la importancia de asegurarse de que los sistemas de IA sean transparentes en su funcionamiento y que se mitigue los sesgos en los datos para garantizar la seguridad y privacidad de la información de los usuarios.

La colaboración entre desarrolladores, reguladores y expertos en ética y privacidad es esencial para garantizar que la ética y la protección de la privacidad sean consideraciones centrales en el desarrollo y despliegue de tecnologías de ciberseguridad basadas en IA.