Playback of this video is not currently available
Socio responsable de Soluciones de Seguridad de Negocio de PwC
La IA generativa está creando nuevas oportunidades para las organizaciones y para sus estrategias de ciberseguridad, que ya están analizando los más de 3800 ejecutivos que han participado en nuestra encuesta este año.
Casi siete de cada diez afirman que su compañía utilizará la IA generativa para su ciberdefensa. Algunas plataformas están ofreciendo licencias para sus modelos grandes de lenguaje (LLM, por sus siglas en inglés) junto con sus herramientas de cibertecnología para la gestión de la seguridad, la respuesta a incidentes y la generación de informes en este ámbito. Incluso sin recurrir a las herramientas de sus proveedores, algunas compañías han estado utilizando GenAI para identificar y gestionar intentos de phishing.
Más de dos tercios afirman que utilizarán GenAI para la ciberdefensa en los próximos 12 meses.
La mitad ya la está utilizando para la detección y mitigación de riesgos de ciberseguridad.
Una quinta parte ya está percibiendo beneficios en sus programas de ciberseguridad gracias a GenAI, tan solo unos meses después de su debut público.
Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa? Q10. ¿En qué medida su empresa aplica o tiene previsto aplicar las siguientes iniciativas de ciberseguridad?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.
La IA generativa ha llegado en un momento idóneo para la ciberseguridad:
Detección y análisis de amenazas. Las organizaciones se han visto desbordadas por el número y la complejidad de los ciberataques, dos factores que no han dejado de aumentar y que se potencian ahora con el uso de la GenAI, la cual está también facilitando la ejecución de ciberataques a gran escala. Según un grupo de investigadores, en sólo un mes, de enero a febrero de 2023, se produjo un aumento del 135% en el número de ataques basados en ingeniería social. Además, servicios como WormGPT y FraudGPT están favoreciendo el phishing para obtener contraseñas y comprometer correos electrónicos corporativos de forma personalizada.
Para hacer más segura la innovación. Las empresas que prevén beneficiarse de las múltiples oportunidades que ofrece la GenAI, se están exponiendo a una serie de riesgos - privacidad, la ciberseguridad, el cumplimiento de normativas, las relaciones con terceros, la normativa legal y la propiedad intelectual-, para crear nuevas áreas de negocio y aumentar la productividad de sus profesionales. Obtener el máximo retorno de estas tecnologías exigirá a las compañías gestionar todos riesgos que conlleva tomando en consideración el negocio en su conjunto.
Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.
Desde la detección hasta la acción, la IA generativa puede ser útil para la ciberdefensa. A continuación, destacamos los tres ámbitos de aplicación más prometedores para el uso de GenAI en ciberdefensa, según nuestros encuestados:
Detección y seguimiento de amenazas. La GenAI puede ser de gran valor para detener de forma proactiva las vulnerabilidades y hacer una rápida evaluación de su alcance -lo que está en riesgo, lo que ya está comprometido y cuáles han sido los daños-; y la búsqueda de soluciones y estrategias de defensa eficaces. La IA es capaz de identificar patrones, anomalías e indicadores de peligro que se escapan de los sistemas tradicionales de detección.
La IA generativa también puede sintetizar datos de gran volumen sobre un ciberataque a partir de múltiples sistemas y fuentes para ayudar a los equipos a comprender lo que ha ocurrido. Puede exponer amenazas complejas en un lenguaje fácil de entender, asesorar sobre estrategias para atenuarlas y ayudar en búsquedas e investigaciones.
Reporting de ciberriesgos e incidentes. La IA generativa promete simplificar en gran medida la presentación de informes sobre riesgos e incidentes de ciberseguridad. Algunos proveedores ya están trabajando en esta posibilidad. A través del procesamiento del lenguaje natural (PLN, por sus siglas en inglés), la GenAI puede transformar datos complejos en información concisa y comprensible para personas sin conocimientos especializados. Además, puede ayudar a generar informes sobre respuestas a incidentes, inteligencia sobre amenazas, evaluaciones de riesgos, auditorías y cumplimiento de normativas. Y, de hecho, podría presentar sus recomendaciones en términos que cualquiera pueda entender, incluso convirtiendo gráficos complejos en textos sencillos. También podría capacitarse a este tipo de Inteligencia Artificial para crear plantillas que permitan realizar comparaciones con los estándares del sector y las prácticas más avanzadas.
Las posibilidades de elaboración de informes de la GenAI deberían resultar de gran valor en esta nueva era de mayor transparencia en materia de incidentes de ciberseguridad, que exigen a las organizaciones la divulgación de ciberincidentes y ciberriesgos significativos en sus informes, por lo que se abre un espacio de oportunidad para disponer herramientas que faciliten la elaboración de estos informes.
Aplicación y actualización de medidas de control. Proteger la nube y la cadena de suministro de software requiere una enorme labor de actualización constantes de políticas y controles de seguridad. Los algoritmos de aprendizaje automático y las herramientas de GenAI pronto podrían recomendar, evaluar y redactar un borrador de políticas de seguridad adaptadas al perfil de las amenazas, las tecnologías y los objetivos de las organizaciones. Dentro de un entorno Zero Trust, la IA generativa podría automatizar, evaluar y asignar continuamente una evaluación de riesgo a los endpoints, así como revisar las solicitudes de acceso y permisos. Un enfoque flexible, impulsado por herramientas de GenAI, podría ayudar a las empresas a responder mejor a las cambiantes amenazas y a permanecer seguras.
Y mucho más... Muchos proveedores están llevando al límite la IA generativa, poniendo a prueba lo que es posible. A medida que la tecnología mejore y madure, veremos muchos más usos en ciberdefensa. Sin embargo, podría pasar algún tiempo antes de que veamos un uso efectivo y a gran escala de la defenseGPT.
Las herramientas de GenAI podrían ayudar a aliviar la importante escasez de talento en materia de ciberseguridad. Según nuestra encuesta Digital Trust Insights 2024, el nivel de rotación de los profesionales es un problema cada vez mayor para el 39% de los CISOs, CIOs y CTOs. Para otro 15%, está obstaculizando los avances en sus objetivos de ciberseguridad.
Una vez que la IA generativa haya liberado a los profesionales de seguridad de las tareas rutinarias, como la detección y el análisis, los equipos de ciberseguridad podrán centrarse en comprender -no sólo en conocer- las causas de las vulneraciones y la mejor forma de responder a ellas. De este modo, estarán en mejores condiciones para tomar decisiones rápidas y actuar con celeridad. Podrían además cultivar un aprendizaje de las lógicas de los LLM, y utilizarlo para crear nuevas formas de proteger la compañía.
El uso de GenAI para la ciberdefensa -al igual que su uso en toda la organización- se verá afectado por las normativas sobre Inteligencia Artificial, especialmente, en lo que respecta a la discriminación, la desinformación y los usos poco éticos. Normativas recientes, como la Declaración de Derechos de la IA (EEUU) y el Proyecto de Ley de IA de la Unión Europea, hacen hincapié en el uso ético de la IA. Los legisladores de todo el mundo se están esforzando por establecer límites y aumentar el control, tratando a la IA generativa con urgencia debido a su potencial de impacto en la sociedad.
Las organizaciones con mayor grado de madurez querrán adelantarse a las normativas sobre Inteligencia Artificial. Nuestros encuestados son conscientes de su inminencia, manifestando que las normativas sobre IA, más que ninguna otra, podrían afectar significativamente al crecimiento futuro de sus ingresos.
De entre el 37% de los encuestados que prevén una regulación en materia de IA, tres cuartas partes piensan que los costes para su cumplimiento serán significativos. Cerca de dos quintas partes afirman igualmente, que tendrán que abordar cambios importantes para poder cumplir con la legislación.
En medio de la incertidumbre regulatoria, las empresas pueden controlar sólo una cuestión: desplegar la GenAI de forma responsable en sus entornos, lo que puede prepararles para el cumplimiento normativo futuro. Siete grandes desarrolladores de LLM están abriendo camino. Su compromiso con el Gobierno de EE.UU. consiste en empezar a poner límites a las capacidades de esta tecnología.
El entusiasmo por la IA se refleja en que el 63% de nuestros encuestados dicen sentirse cómodos lanzando herramientas de GenAI en sus empresas sin ningún control interno sobre la calidad de los datos y gobierno. Los altos ejecutivos son incluso más proclives (74%) que los responsables de tecnología y seguridad.
Sin embargo, sin un buen gobierno, la puesta en marcha de herramientas de GenAI pone en riesgo la privacidad de las organizaciones y mucho más. ¿Qué pasa si alguien incluye información confidencial en una pregunta a través de GenAI? Y sin formación sobre cómo evaluar adecuadamente los resultados, las personas podrían basar sus recomendaciones en datos inventados o instrucciones sesgadas.
Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.
Para empezar con la GenAI, como con casi cualquier tecnología, hay que sentar las bases de la confianza en su diseño, su funcionamiento y sus resultados. Esta base comienza con el gobierno, pero es especialmente importante centrarse en la gestión y la seguridad de los datos. La mayor parte de los encuestados afirman que tienen intención de utilizar GenAI de forma ética y responsable -el 77% está de acuerdo con esta afirmación-.
Q7. ¿En qué medida está de acuerdo o en desacuerdo con las siguientes afirmaciones sobre la IA Generativa?
Base: Todos los encuestados=3876
Fuente: PwC, 2024 Global Digital Trust Insights.
Las herramientas de IA generativa serán capaces de sintetizar información de múltiples fuentes para ayudar en la toma de decisiones humanas.
Las empresas harán bien en adoptar un buen gobierno de la IA para la seguridad para guiar el uso ético y fiable de la IA por parte de la organización. Aunque a menudo se considera una función de la tecnología, la supervisión y la intervención humanas también son esenciales para los usos más adecuados e idóneos de la IA.
En última instancia, la fiabilidad de la IA generativa reside en las personas. Todo usuario inteligente puede -debe- ser un guardián de la confianza. Las organizaciones tendrán que contar con las personas para que conozcan los riesgos de utilizar la IA y sean capaces de hacer una evaluación ética de los resultados de los modelos de IA generativa de acuerdo con los niveles de riesgo de la organización. Igualmente, los profesionales de la seguridad tendrán que seguir los principios de la IA responsable