Global Digital Trust Insights 2024

El uso de IA generativa para ciberdefensa, en la hoja de ruta de las organizaciones

Global Digital Trust Insights
En su vigésima sexta edición, Global Digital Trust Insights Survey 2024, elaborada por PwC, es el estudio más antiguo que se realiza de forma recurrente sobre tendencias en materia de ciberseguridad. Se trata también de la mayor encuesta en este ámbito, ya que recoge las opiniones de más de 3.800 altos ejecutivos del ámbito de la seguridad, la tecnología y negocio.
Actualmente, las empresas están apostando por la transformación y la innovación, conectando, cada vez más, las experiencias digitales gracias al uso de tecnologías disruptivas. Un contexto en el que la ciberseguridad debería situarse en el epicentro de la innovación. Nuestro informe es una guía que recoge alguna de las iniciativas que, según la visión de los directivos encuestados, podrían suponer un cambio a la hora de hacer ciberseguridad, y servir de referencia junto a las siguientes para dar un paso más allá del cyber as usual.

Playback of this video is not currently available

1:58

Jesús Romero

Socio responsable de Soluciones de Seguridad de Negocio de PwC

La adopción de IA debe ir acompañada de gobierno, responsabilidad y gestión del riesgo

  • Según nuestro estudio, siete de cada diez altos directivos (69%) afirman que su compañía tiene previsto utilizar la IA generativa (GenAI, por sus siglas en inglés) para sus estrategias de ciberseguridad en los próximos 12 meses.
  • Es más que probable que el uso de la IA generativa provoque otro repunte de las ciberamenazas y facilite ataques a gran escala. Los CISO y los CIO no deben perder de vista esta opinión: el 52% de los entrevistados en el estudio prevé que el uso de la IA generativa genere ciberataques de alto impacto en los próximos 12 meses.
  • Las compañías necesitan diseñar un gobierno de la Inteligencia Artificial sólido, y adelantarse a los riesgos que podrían derivarse del uso de la IA generativa. En este sentido, tan solo el 19% de los directivos encuestados manifiesta no sentirse cómodo con el uso de herramientas de IA generativa, antes de haber establecido las políticas de gobierno y control correspondientes.

La IA generativa está creando nuevas oportunidades para las organizaciones y para sus estrategias de ciberseguridad, que ya están analizando los más de 3800 ejecutivos que han participado en nuestra encuesta este año.

Casi siete de cada diez afirman que su compañía utilizará la IA generativa para su ciberdefensa. Algunas plataformas están ofreciendo licencias para sus modelos grandes de lenguaje (LLM, por sus siglas en inglés) junto con sus herramientas de cibertecnología para la gestión de la seguridad, la respuesta a incidentes y la generación de informes en este ámbito. Incluso sin recurrir a las herramientas de sus proveedores, algunas compañías han estado utilizando GenAI para identificar y gestionar intentos de phishing.


IA generativa para defenderse de los ciberdelitos

69%

 

Más de dos tercios afirman que utilizarán GenAI para la ciberdefensa en los próximos 12 meses.

 

47%

 

La mitad ya la está utilizando para la detección y mitigación de riesgos de ciberseguridad.

21%

 

Una quinta parte ya está percibiendo beneficios en sus programas de ciberseguridad gracias a GenAI, tan solo unos meses después de su debut público.

Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa? Q10. ¿En qué medida su empresa aplica o tiene previsto aplicar las siguientes iniciativas de ciberseguridad?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.


La IA generativa ha llegado en un momento idóneo para la ciberseguridad:

Detección y análisis de amenazas. Las organizaciones se han visto desbordadas por el número y la complejidad de los ciberataques, dos factores que no han dejado de aumentar y que se potencian ahora con el uso de la GenAI, la cual está también facilitando la ejecución de ciberataques a gran escala. Según un grupo de investigadores, en sólo un mes, de enero a febrero de 2023, se produjo un aumento del 135% en el número de ataques basados en ingeniería social. Además, servicios como WormGPT y FraudGPT están favoreciendo el phishing para obtener contraseñas y comprometer correos electrónicos corporativos de forma personalizada.

Para hacer más segura la innovación. Las empresas que prevén beneficiarse de las múltiples oportunidades que ofrece la GenAI, se están exponiendo a una serie de riesgos - privacidad, la ciberseguridad, el cumplimiento de normativas, las relaciones con terceros, la normativa legal y la propiedad intelectual-, para crear nuevas áreas de negocio y aumentar la productividad de sus profesionales. Obtener el máximo retorno de estas tecnologías exigirá a las compañías gestionar todos riesgos que conlleva tomando en consideración el negocio en su conjunto.

Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.

La promesa de la IA generativa aplicados a la ciberdefensa

Desde la detección hasta la acción, la IA generativa puede ser útil para la ciberdefensa. A continuación, destacamos los tres ámbitos de aplicación más prometedores para el uso de GenAI en ciberdefensa, según nuestros encuestados:

Detección y seguimiento de amenazas. La GenAI puede ser de gran valor para detener de forma proactiva las vulnerabilidades y hacer una rápida evaluación de su alcance -lo que está en riesgo, lo que ya está comprometido y cuáles han sido los daños-; y la búsqueda de soluciones y estrategias de defensa eficaces. La IA es capaz de identificar patrones, anomalías e indicadores de peligro que se escapan de los sistemas tradicionales de detección.

La IA generativa también puede sintetizar datos de gran volumen sobre un ciberataque a partir de múltiples sistemas y fuentes para ayudar a los equipos a comprender lo que ha ocurrido. Puede exponer amenazas complejas en un lenguaje fácil de entender, asesorar sobre estrategias para atenuarlas y ayudar en búsquedas e investigaciones.

Reporting de ciberriesgos e incidentes. La IA generativa promete simplificar en gran medida la presentación de informes sobre riesgos e incidentes de ciberseguridad. Algunos proveedores ya están trabajando en esta posibilidad. A través del procesamiento del lenguaje natural (PLN, por sus siglas en inglés), la GenAI puede transformar datos complejos en información concisa y comprensible para personas sin conocimientos especializados. Además, puede ayudar a generar informes sobre respuestas a incidentes, inteligencia sobre amenazas, evaluaciones de riesgos, auditorías y cumplimiento de normativas. Y, de hecho, podría presentar sus recomendaciones en términos que cualquiera pueda entender, incluso convirtiendo gráficos complejos en textos sencillos. También podría capacitarse a este tipo de Inteligencia Artificial para crear plantillas que permitan realizar comparaciones con los estándares del sector y las prácticas más avanzadas.

Las posibilidades de elaboración de informes de la GenAI deberían resultar de gran valor en esta nueva era de mayor transparencia en materia de incidentes de ciberseguridad, que exigen a las organizaciones la divulgación de ciberincidentes y ciberriesgos significativos en sus informes, por lo que se abre un espacio de oportunidad para disponer herramientas que faciliten la elaboración de estos informes.

Aplicación y actualización de medidas de control. Proteger la nube y la cadena de suministro de software requiere una enorme labor de actualización constantes de políticas y controles de seguridad. Los algoritmos de aprendizaje automático y las herramientas de GenAI pronto podrían recomendar, evaluar y redactar un borrador de políticas de seguridad adaptadas al perfil de las amenazas, las tecnologías y los objetivos de las organizaciones. Dentro de un entorno Zero Trust, la IA generativa podría automatizar, evaluar y asignar continuamente una evaluación de riesgo a los endpoints, así como revisar las solicitudes de acceso y permisos. Un enfoque flexible, impulsado por herramientas de GenAI, podría ayudar a las empresas a responder mejor a las cambiantes amenazas y a permanecer seguras.

Y mucho más... Muchos proveedores están llevando al límite la IA generativa, poniendo a prueba lo que es posible. A medida que la tecnología mejore y madure, veremos muchos más usos en ciberdefensa. Sin embargo, podría pasar algún tiempo antes de que veamos un uso efectivo y a gran escala de la defenseGPT.

Equipos de seguridad dedicados a tareas de valor

Las herramientas de GenAI podrían ayudar a aliviar la importante escasez de talento en materia de ciberseguridad. Según nuestra encuesta Digital Trust Insights 2024, el nivel de rotación de los profesionales es un problema cada vez mayor para el 39% de los CISOs, CIOs y CTOs. Para otro 15%, está obstaculizando los avances en sus objetivos de ciberseguridad.

Una vez que la IA generativa haya liberado a los profesionales de seguridad de las tareas rutinarias, como la detección y el análisis, los equipos de ciberseguridad podrán centrarse en comprender -no sólo en conocer- las causas de las vulneraciones y la mejor forma de responder a ellas. De este modo, estarán en mejores condiciones para tomar decisiones rápidas y actuar con celeridad. Podrían además cultivar un aprendizaje de las lógicas de los LLM, y utilizarlo para crear nuevas formas de proteger la compañía.

Gestionar la incertidumbre normativa

El uso de GenAI para la ciberdefensa -al igual que su uso en toda la organización- se verá afectado por las normativas sobre Inteligencia Artificial, especialmente, en lo que respecta a la discriminación, la desinformación y los usos poco éticos. Normativas recientes, como la Declaración de Derechos de la IA (EEUU) y el Proyecto de Ley de IA de la Unión Europea, hacen hincapié en el uso ético de la IA. Los legisladores de todo el mundo se están esforzando por establecer límites y aumentar el control, tratando a la IA generativa con urgencia debido a su potencial de impacto en la sociedad.

Las organizaciones con mayor grado de madurez querrán adelantarse a las normativas sobre Inteligencia Artificial. Nuestros encuestados son conscientes de su inminencia, manifestando que las normativas sobre IA, más que ninguna otra, podrían afectar significativamente al crecimiento futuro de sus ingresos.

De entre el 37% de los encuestados que prevén una regulación en materia de IA, tres cuartas partes piensan que los costes para su cumplimiento serán significativos. Cerca de dos quintas partes afirman igualmente, que tendrán que abordar cambios importantes para poder cumplir con la legislación.

En medio de la incertidumbre regulatoria, las empresas pueden controlar sólo una cuestión: desplegar la GenAI de forma responsable en sus entornos, lo que puede prepararles para el cumplimiento normativo futuro. Siete grandes desarrolladores de LLM están abriendo camino. Su compromiso con el Gobierno de EE.UU. consiste en empezar a poner límites a las capacidades de esta tecnología.

Canalizar la adopción de la IA hacia prácticas éticas y de confianza

El entusiasmo por la IA se refleja en que el 63% de nuestros encuestados dicen sentirse cómodos lanzando herramientas de GenAI en sus empresas sin ningún control interno sobre la calidad de los datos y gobierno. Los altos ejecutivos son incluso más proclives (74%) que los responsables de tecnología y seguridad.

Sin embargo, sin un buen gobierno, la puesta en marcha de herramientas de GenAI pone en riesgo la privacidad de las organizaciones y mucho más. ¿Qué pasa si alguien incluye información confidencial en una pregunta a través de GenAI? Y sin formación sobre cómo evaluar adecuadamente los resultados, las personas podrían basar sus recomendaciones en datos inventados o instrucciones sesgadas.

Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.

Para empezar con la GenAI, como con casi cualquier tecnología, hay que sentar las bases de la confianza en su diseño, su funcionamiento y sus resultados. Esta base comienza con el gobierno, pero es especialmente importante centrarse en la gestión y la seguridad de los datos. La mayor parte de los encuestados afirman que tienen intención de utilizar GenAI de forma ética y responsable -el 77% está de acuerdo con esta afirmación-.

Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.

La adopción de la IA debe contar con el factor humano

Las herramientas de IA generativa serán capaces de sintetizar información de múltiples fuentes para ayudar en la toma de decisiones humanas.

Las empresas harán bien en adoptar un buen gobierno de la IA para la seguridad para guiar el uso ético y fiable de la IA por parte de la organización. Aunque a menudo se considera una función de la tecnología, la supervisión y la intervención humanas también son esenciales para los usos más adecuados e idóneos de la IA.

En última instancia, la fiabilidad de la IA generativa reside en las personas. Todo usuario inteligente puede -debe- ser un guardián de la confianza. Las organizaciones tendrán que contar con las personas para que conozcan los riesgos de utilizar la IA y sean capaces de hacer una evaluación ética de los resultados de los modelos de IA generativa de acuerdo con los niveles de riesgo de la organización. Igualmente, los profesionales de la seguridad tendrán que seguir los principios de la IA responsable

El informe Global Digital Trust Insights 2024 se elabora a partir de una encuesta a 3.876 directivos y responsables de tecnología y ciberseguridad (CEOs, directores corporativos, CFOs, CISOs, CIOs, y miembros del C-Suite) realizada entre mayo y julio de 2023.

Cuatro de cada diez entrevistados pertenecen a grandes empresas, con más de 5.000 millones de dólares de facturación, y el 30% a compañías con ingresos superiores a los 10.000 millones de dólares.

Los encuestados pertenecen a un amplio abanico de sectores que incluyen la industria (20%), el sector financiero (20%), tecnología, entretenimiento y medios (19%), distribución y consumo (17%), energía y recursos naturales (11%), salud (9%) y el sector público (3%). Estos directivos pertenecen a 71 países, España incluida. Por grandes áreas geográficas se distribuyen de la siguiente forma: Europa Occidental (32%), América del Norte (28%), Asia Pacifico (18%), Latinoamérica (10%), Europa del Este (5%), África (4%) y Oriente Medio (3%).

Global Digital Trust Insights 2024

Contacta con nosotros

Jesus Romero, Socio responsable de Business Security Solutions

Jesús Romero

Socio responsable de Business Security Solutions de PwC España

Síguenos en