El uso cre­cien­te de herra­mien­tas de Inte­li­gen­cia Arti­fi­cial (IA) en el entorno empre­sa­rial ha demos­tra­do opti­mi­zar pro­ce­sos, mejo­rar la toma de deci­sio­nes y per­so­na­li­zar expe­rien­cias para los clien­tes. Sin embar­go, según el infor­me ‘El esta­do actual de la ciber­se­gu­ri­dad en Espa­ña 2024’, ela­bo­ra­do por Deloit­te, un 69% de las com­pa­ñías care­ce de un enfo­que reac­ti­vo ante las ame­na­zas deri­va­das de la IA, lo que pone de mani­fies­to la fal­ta de una estra­te­gia cla­ra de inte­gra­ción.

Ser­gi Simón, coor­di­na­dor del Área de Ries­gos de EAL­DE Busi­ness School, advier­te que “una de las prin­ci­pa­les ten­den­cias es el uso cada vez más sofis­ti­ca­do de la IA en ata­ques de inge­nie­ría social, lo que hace que el phishing sea más per­so­na­li­za­do y difí­cil de detec­tar. Ade­más, la gene­ra­ción de con­te­ni­do fal­so median­te IA está soca­van­do la con­fian­za en la infor­ma­ción en línea y faci­li­tan­do la pro­pa­ga­ción de des­in­for­ma­ción”.

Rober­to Cas­tro, pro­fe­sor del Más­ter en Ges­tión de Ries­gos de la escue­la de nego­cios, des­ta­ca que “el ries­go más apre­mian­te es la gene­ra­ción auto­má­ti­ca de malwa­re por­que per­mi­te apro­ve­char las vul­ne­ra­bi­li­da­des de un sis­te­ma para poder con­tro­lar­lo y blo­quear­lo para pedir un res­ca­te”. Esta situa­ción plan­tea desa­fíos sig­ni­fi­ca­ti­vos para la segu­ri­dad ciber­né­ti­ca, ya que la com­bi­na­ción de la sofis­ti­ca­ción de los ata­ques basa­dos en IA y la depen­den­cia cada vez mayor de esta tec­no­lo­gía en diver­sos sec­to­res repre­sen­ta un desa­fío crí­ti­co para las empre­sas.

Estra­te­gias para miti­gar ries­gos aso­cia­dos a la IA

Ante estos desa­fíos, las empre­sas deben imple­men­tar medi­das proac­ti­vas para miti­gar los ries­gos aso­cia­dos a la IA en ciber­se­gu­ri­dad. Ser­gi Simón sugie­re que “las orga­ni­za­cio­nes debe­rían imple­men­tar medi­das como la eva­lua­ción con­ti­nua de vul­ne­ra­bi­li­da­des, la capa­ci­ta­ción del per­so­nal en ciber­se­gu­ri­dad y la imple­men­ta­ción de solu­cio­nes de defen­sa avan­za­das”.

Ade­más, la cola­bo­ra­ción entre el sec­tor públi­co y pri­va­do es esen­cial para com­par­tir infor­ma­ción sobre ame­na­zas y desa­rro­llar estra­te­gias con­jun­tas de defen­sa. Según Rober­to Cas­tro, “el sec­tor públi­co pue­de pro­por­cio­nar regu­la­cio­nes, orien­ta­ción y recur­sos, mien­tras que el sec­tor pri­va­do pue­de apor­tar expe­rien­cia téc­ni­ca y cono­ci­mien­tos de mer­ca­do”. Ejem­plo de esta cola­bo­ra­ción es la par­ti­ci­pa­ción de Cai­xa­Bank en pro­yec­tos finan­cia­dos por la Comi­sión Euro­pea para mejo­rar sus capa­ci­da­des de detec­ción y res­pues­ta ante ame­na­zas.

El futu­ro de la inter­ac­ción entre IA y ciber­se­gu­ri­dad

Miran­do hacia el futu­ro, los exper­tos anti­ci­pan una evo­lu­ción sig­ni­fi­ca­ti­va en los ciber­ries­gos y la inter­ac­ción entre la inte­li­gen­cia arti­fi­cial y la ciber­se­gu­ri­dad, espe­cial­men­te con la lle­ga­da de lacompu­tación cuán­ti­ca. Ser­gi Simón advier­te que con la compu­tación cuán­ti­ca sur­gi­rán nue­vos desa­fíos y opor­tu­ni­da­des en la segu­ri­dad ciber­né­ti­ca, lo que reque­ri­rá el desa­rro­llo de méto­dos de pro­tec­ción ciber­né­ti­ca cuán­ti­ca­men­te segu­ros.

Por otro lado, se espe­ra que la IA con­ti­núe desem­pe­ñan­do un papel cru­cial en la detec­ción y pre­ven­ción de ata­ques, pero tam­bién podría ser uti­li­za­da por los adver­sa­rios para desa­rro­llar ata­ques­más sofis­ti­ca­dos y difí­ci­les de detec­tar.

Éti­ca y pri­va­ci­dad en el uso de IA en ciber­se­gu­ri­dad

En el con­tex­to del cre­cien­te uso de inte­li­gen­cia arti­fi­cial en ciber­se­gu­ri­dad, es fun­da­men­tal prio­ri­zar los prin­ci­pios éti­cos y pro­te­ger la pri­va­ci­dad de los usua­rios. Ser­gi Simón enfa­ti­za la impor­tan­cia de ase­gu­rar­se de que los sis­te­mas de IA sean trans­pa­ren­tes en su fun­cio­na­mien­to y que se miti­gue los ses­gos en los datos para garan­ti­zar la segu­ri­dad y pri­va­ci­dad de la infor­ma­ción de los usua­rios.

La cola­bo­ra­ción entre desa­rro­lla­do­res, regu­la­do­res y exper­tos en éti­ca y pri­va­ci­dad es esen­cial para garan­ti­zar que la éti­ca y la pro­tec­ción de la pri­va­ci­dad sean con­si­de­ra­cio­nes cen­tra­les en el desa­rro­llo y des­plie­gue de tec­no­lo­gías de ciber­se­gu­ri­dad basa­das en IA.