Inteligencia artificial en la ciberseguridad, que ventajas e inconvenientes tiene, ¿regularización?

    En el contexto actual, en permanente cambio y evolución, la inteligencia artificial se ha convertido durante los últimos meses en una herramienta muy poderosa en campos muy diversos, y ahora también en el panorama de la ciberseguridad por su manera de detectar cualquier tipo de vulnerabilidad o de crearla.

    Ahora, tal y como indicaron desde la tecnológica española NuuBB, la cuestión no es tanto si nos van a atacar, sino cómo y cuándo. Según datos del Foro Económico Mundial (WEF), en 2021 hubo un incremento del 151% de ciberataques a nivel global. "A medida que el número de ataques en la red incrementan, la inteligencia artificial (IA) adquiere un papel relevante en materia de ciberseguridad y se sitúa como una aliada en la lucha contra este tipo de ataques, puesto que aprende continuamente, como hace con el Deep Learning", explicaron desde NuuBB.

    Sin embargo, también existen riesgos asociados al uso de la IA en ciberseguridad, ya que se trata de una tecnología de límites desconocidos que avanza sin regulación y en manos de cualquier usuario.

    De hecho, algunos líderes tecnológicos aconsejan frenar el desarrollo de la IA, e incluso algunos países han prohibido su uso debido a su rápida evolución, la baja regulación frente a la privacidad y el desconocimiento de la población sobre sus usos, riesgos y otros factores.

    Ya sea en su forma de chatbot, la más conocida siendo ChatGPT, o en sus otras formas de expresión, la inteligencia artificial es la revolución de las tecnologías que hoy en día conocemos.






Ventajas de la IA en la ciberseguridad


     • Una de las mayores ventajas de la IA en ciberseguridad es su capacidad para automatizar tareas. Los algoritmos de aprendizaje automático pueden entrenarse para identificar patrones y anomalías en el tráfico de red, lo que les permite detectar y responder a las amenazas en tiempo real. Esto puede aumentar enormemente la eficiencia de los equipos de ciberseguridad y ayudarles a adelantarse a las amenazas en rápida evolución. Por ejemplo, los sistemas de detección de intrusiones (IDS) basados en IA pueden detectar y bloquear automáticamente el tráfico de red malicioso, sin intervención humana.

    • La IA también puede utilizarse para mejorar la precisión de la detección de amenazas. Las soluciones tradicionales de ciberseguridad dependen de sistemas basados en reglas que se basan en patrones predefinidos para identificar las amenazas. Sin embargo, estos sistemas pueden ser fácilmente burlados por los atacantes que utilizan nuevas tácticas o técnicas. En cambio, los sistemas basados en IA pueden aprender de incidentes pasados y adaptarse a nuevas amenazas, lo que los hace más resistentes a los ataques. Por ejemplo, los sistemas basados en IA pueden aprender a identificar nuevas cepas de malware analizando su comportamiento, sin depender de patrones predefinidos.

     • Otra ventaja de la IA en ciberseguridad es que puede ayudar a las organizaciones a priorizar su respuesta ante cualquier incidente. Con la gran cantidad de datos que generan las redes, puede ser difícil para los equipos de seguridad determinar qué incidentes son los más críticos y requieren más atención. La IA puede ayudar a identificar aquellos más críticos y priorizar la respuesta en consecuencia.

     Ciberprotección avanzada: la previsión y detección mejorada de posibles ciberataques y brechas en el sistema informático ofrecerán un entorno digital más seguro.
   
     • Aceleración de investigación: rápidos avances en investigación de nuevos métodos, herramientas y funciones.
    
    • Deep Learning en ciberseguridad: utiliza el aprendizaje automático de la IA haciendo análisis de situaciones para desarrollar de manera autónoma soluciones de ciberseguridad más amplia y segura.
    
     Recomendaciones de seguridad al usuario: el aprendizaje de usos y el análisis de factores permitirá ofrecer al usuario recomendaciones sobre hábitos de seguridad.
    
     Verificación de protocolos: la detección de fallos y posibles mejoras en protocolos de seguridad garantizará la optimización de un entorno cibernético seguro.
    
    • Desarrollo de software inteligente: se crearán soluciones de ciberseguridad más potentes e inteligentes gracias a una ingeniería de software más avanzada y accesible.


Riesgos de la IA en la ciberseguridad


     • A medida que la IA se hace más frecuente en la ciberseguridad, también plantea una amenaza para el panorama de la seguridad. Por ejemplo, un atacante podría utilizar la IA para eludir los sistemas de detección de intrusos generando tráfico de red malicioso que parezca legítimo.

     • Otro riesgo asociado es que puede utilizarse para lanzar ataques muy sofisticados y selectivos. Los sistemas basados en IA pueden aprender de incidentes pasados y adaptarse a nuevas tácticas, lo que permite a los atacantes eludir las soluciones de seguridad tradicionales y lanzar ataques muy eficaces. Por ejemplo, el malware basado en IA podría utilizarse para evadir el software antivirus cambiando constantemente su código y comportamiento, lo que dificultaría su detección por parte de los equipos de seguridad.

   • Además, los ataques de ingeniería social basados en IA son cada vez más sofisticados y difíciles de detectar. Los ciberdelincuentes están utilizando la IA para suplantar el comportamiento humano, como el uso de texto o voz generados por IA para hacerse pasar por una persona o entidad de confianza y engañar a los usuarios para que faciliten su información personal o dinero. Esto hace que a los usuarios les resulte cada vez más difícil distinguir entre comunicaciones legítimas y maliciosas.

     • Ciberataques potenciados por IA: recientemente en Arizona se llevó a cabo un intento de extorsión que utilizaba la voz clonada de una adolescente con ayuda de la inteligencia artificial para fingir un secuestro.
     
    • Mínima regulación gubernamental: el marco legal de la inteligencia artificial es escaso teniendo en cuenta el alcance de la IA. La protección de la privacidad presenta un claro riesgo.
    
     • Suplantación de identidad: simplemente el chatbot ya es capaz de generar ciberataques reales, con archivos maliciosos y mensajes de suplantación de identidad. Así lo demostró el cofundador de una tecnológica norteamericana que utilizó ChatGPT para crear una campaña de phishing durante el Mundial de fútbol, e incluso hizo un ransomware para macOS.
    
     • Deepfakes: la creación de imágenes y vídeos falsos dará pie a bulos y noticias falsas utilizadas con fines interesados. Defenderse de un ataque con deepfake no es sencillo. Al ser posible replicar la voz, las facciones y los gestos de cualquier persona, distinguir lo falso de lo real es un problema para la víctima. Desde el punto de vista legal, el Reglamento General de Protección de Datos (RGPD) ofrece a las víctimas el derecho a rectificar los datos inexactos o incluso a suprimirlos. El control depende del regulador de cada Estado. La dificultad estriba en localizar al autor de las imágenes y vídeos falsos en muchos casos. En 2022, la Comisión Europea y grandes compañías tecnológicas reforzaron el Código Europeo de Prácticas sobre la Desinformación. Se trata de un marco voluntario de autorregulación de la industria para combatir la desinformación. Está ligado a la Ley de Servicios Digitales (DSA) y quienes lo incumplan pueden ser multados con hasta el 6% de su volumen de negocios mundial.
    
     • Aún en desarrollo: todavía ha de mejorar y está lejos de ser 100% fiable, por lo que no debemos confiar en la IA como la solución perfecta para cualquier decisión.


Arma de doble filo


    En conclusión, el uso de la IA en ciberseguridad puede aportar importantes beneficios en términos de automatización, detección de amenazas y respuesta a incidentes. No obstante, también plantea riesgos, como el potencial de pirateo y manipulación, el lanzamiento de ataques sofisticados y la violación de la privacidad. Las empresas de ciberseguridad están utilizando la IA para proteger a los usuarios de este tipo de ataques, detectando y bloqueando los intentos maliciosos de ingeniería social, e identificando y bloqueando el malware mediante el análisis del comportamiento de archivos y procesos en tiempo real. Sin embargo, es importante recordar que la IA no es una solución milagrosa y que es importante contar con múltiples capas de defensa para protegerse contra las ciberamenazas.

    La aportación de la Inteligencia Artificial a la seguridad informática será determinada por la velocidad de desarrollo de soluciones de ciberprotección avanzada y del desarrollo de ciberataques innovadores. Debemos actuar con plena precaución frente a la IA, sobre todo en esta etapa inicial en la que la regulación es mínima. La prevención de los usuarios es lo que va a determinar el riesgo que supone para las organizaciones, priorizando una desconfianza anticipada para evitar correr riesgos importantes. Va a ser sin dudas una herramienta revolucionaria, y sacar el máximo provecho de sus beneficios aportará una gran ventaja competitiva en el entorno de la ciberseguridad, entre otros



Regulación de la IA

    
    Si todos los tipos de IA se acaban midiendo con el mismo criterio y están completamente regulados, a la industria TI y muchas otras relacionadas no les irá nada bien.

    Por tanto, los legisladores deben escuchar, pero no a los departamentos de marketing, sino a los expertos de la industria del aprendizaje automático/IA y debatir la posible regulación de una forma específica y enfocada: usando sistemas multifunción entrenados con grandes volúmenes de datos abiertos o con sistemas de toma de decisiones de alto nivel de responsabilidad y riesgo.

    Además, las nuevas aplicaciones de la IA obligarán a revisar con frecuencia las normativas a medida que vayan surgiendo.

    Cualquier IA presenta tres problemas principales: 

       •  No sabemos la calidad de los datos que se usan o se han usado para su entrenamiento.
       • No está nada claro qué ha logrado comprender la IA de este paquete de datos ni cómo toma sus decisiones.
       • Y, lo más importante, el algoritmo puede usarse incorrectamente tanto por sus desarrolladores como por sus usuarios.

    Los errores letales del piloto automático, los deepfakes ya habituales en los memes e incluso en las noticias, un error tonto en la contratación de unos maestros de escuela, la policía deteniendo a un ladrón equivocado y una herramienta de contratación con una IA misógina. Además, cualquier IA puede recibir un ataque con la ayuda de muestras de datos hostiles personalizados: unas simples pegatinas pueden engañar a los vehículos, se puede extraer información personal de GPT-3 y los antivirus o EDR también pueden caer en la trampa.

   Las prioridades de su regulación deben quedar claras:

        • Evitar los incidentes en infraestructuras críticas (fábricas/barcos/líneas de transmisión eléctrica/centrales nucleares).
        • Minimizar las amenazas físicas (vehículos sin conductor, diagnóstico erróneo de enfermedades).
        • Minimizar los daños personales y los riesgos comerciales (arrestos o contrataciones erróneos, error del cálculo de la demanda/adquisiciones, etc.).
 
   El objetivo de la regulación debe centrarse en obligar a los usuarios y proveedores de la IA a evitar el aumento de los riesgos previamente descritos. De hecho, cuanto más grave sea el riesgo, más hincapié se debe hacer en esta obligación.

    Los modelos de aprendizaje automático que se utilizan para actividades triviales, como recomendaciones de compras, pueden no estar regulados, pero cuanto más sofisticado sea el modelo o su área de aplicación, más drásticos deberían ser los requisitos para los proveedores y usuarios del sistema. Por ejemplo:
      
        • Enviar el código de un modelo o un conjunto de datos de entrenamiento para su inspección a reguladores o expertos.
        • Probar la solidez de un conjunto de datos de entrenamiento, incluso en términos de sesgo, derechos de autor, etc.
        • Probar la sensatez del “resultado” de la IA
        • Etiquetar las operaciones y resultados de la IA.
        • Actualizar el modelo y sus datos de entrenamiento; por ejemplo, suprimir fórmulas químicas para explosivos en la producción del modelo.
        • Probar la IA en busca de “datos hostiles” y actualizar su comportamiento según sea necesario.
        • Controlar quién usa una IA específica y por qué. Negar determinados tipos de uso.
        • Limitar el entrenamiento de las IA grandes o que se apliquen a un área en particular al permiso del regulador.

No hay comentarios:

Publicar un comentario