Inteligencia Artificial, un arma de doble filo
Kaspersky explora las implicaciones que tendrá el uso de la Inteligencia Artificial, tanto de atacantes como de expertos en ciberseguridad.
La Inteligencia Artificial ha sido la gran protagonista en la feria internacional de tecnología CES, celebrada esta semana en Las Vegas: desde cepillos de dientes, parrillas de barbacoa hasta carros ahora integran esta tecnología de una forma u otra.
Ante la proliferación de su uso, los expertos de Kaspersky realizaron un análisis sobre la gran influencia de la IA en el panorama de ciberseguridad, explorando sus implicaciones y centrándose en el uso que, tanto los defensores y reguladores como los ciberdelincuentes, pueden darle a esta herramienta.
La investigación de Kaspersky detalla cómo evolucionará el panorama de las amenazas relacionadas con la IA y reitera la importancia de contar con un marco regulatorio que permita el uso responsable de esta herramienta. Los aspectos más relevantes del estudio “El Impacto de la IA en la ciberseguridad” están a continuación:
Vulnerabilidades más complejas
A medida que los Modelos de Lenguaje a Gran Escala (LLMs por sus siglas en inglés) se integran en más productos orientados al consumidor, surgirán nuevas vulnerabilidades complejas en la intersección de la IA generativa probabilística y las tecnologías deterministas tradicionales, ampliando la superficie de ataque que los profesionales de la ciberseguridad deben proteger. Esto requerirá que los programadores estudien nuevas medidas de seguridad, como la aprobación del usuario para las acciones que inician los agentes de LLMs que básicamente son los sistemas de IA para entender y generar texto de manera similar a cómo hacemos los seres humanos.
Un asistente integral de IA para los especialistas en ciberseguridad
Los investigadores y miembros del Red Team se valen de la IA generativa para crear herramientas innovadoras de ciberseguridad, lo que, potencialmente, llevaría a tener un asistente que utilice el LLM o el Aprendizaje Automático (ML, por sus siglas en inglés). Esta herramienta podría automatizar las tareas del Red Team, ofreciendo orientación basada en órdenes ejecutadas en un entorno de pentesting (ejercicio de prevención en el que un experto en ciberseguridad intenta encontrar y explotar vulnerabilidades en un sistema informático).
Las redes neuronales se utilizarán cada vez más para generar imágenes que ayuden a las estafas
Este año, los estafadores podrían ampliar sus tácticas utilizando redes neuronales, para crear un contenido fraudulento más convincente aprovechando las herramientas de inteligencia artificial. Con la posibilidad de generar sin esfuerzo imágenes y videos convincentes, los agentes maliciosos plantean un mayor riesgo de intensificar las amenazas cibernéticas relacionadas con fraudes y estafas.
La IA no se convertirá en un motor de cambios revolucionarios en el panorama de amenazas durante 2024
A pesar de las tendencias anteriores, los expertos de Kaspersky siguen siendo escépticos respecto a que la IA cambie significativamente el panorama de amenazas en el corto plazo. Aunque los ciberdelincuentes adoptarán la IA generativa, lo mismo ocurre con los ciberdefensores, quienes utilizarán las mismas herramientas, o incluso otras más avanzadas, para probar la mejora de la seguridad en el software y las redes, lo que hace poco probable que alteren drásticamente el panorama de los ataques.
Más iniciativas regulatorias relacionadas con la IA con la contribución del sector privado
Con su rápido desarrollo, la tecnología se ha convertido en un asunto de formulación de políticas y regulación. Está previsto que aumente el número de iniciativas regulatorias relacionadas con la IA. Los agentes que no son estatales, como es el caso de las empresas de tecnología, dada su experiencia en el desarrollo y uso de la Inteligencia Artificial, pueden proporcionar conocimientos invaluables para los debates sobre la regulación de la IA en las plataformas, tanto globales como nacionales.
Marca de agua para contenido generado por IA
Se necesitarán más regulaciones, así como las políticas de los proveedores de servicios, para señalar o identificar el contenido sintético, y estos últimos deben seguir invirtiendo en tecnologías de detección. Los programadores e investigadores, por su parte, contribuirán en la creación de métodos de marca de agua para facilitar la identificación y procedencia de los medios sintéticos.
“La Inteligencia Artificial en ciberseguridad es un arma de doble filo. Sus capacidades adaptativas fortalecen nuestras defensas y ofrecen un escudo proactivo contra las amenazas en evolución. Sin embargo, ese mismo dinamismo plantea riesgos, ya que los atacantes aprovechan la IA para diseñar ataques más complejos. Lograr el equilibrio adecuado, garantizar un uso responsable sin compartir demasiados datos confidenciales, es primordial para proteger nuestras fronteras digitales”, comenta Vladislav Tushkanov, experto en seguridad de Kaspersky.
Este análisis exhaustivo, que forma parte del Boletín de seguridad de Kaspersky (KSB), es una recopilación anual de predicciones e informes detallados que ilustran cambios clave en el dinámico campo de la ciberseguridad. El estudio completo puede consultarse aquí.