La inteligencia artificial (IA) es un tema de plena actualidad, y con razón. Decir que las empresas están entusiasmadas con las posibilidades de la IA generativa es quedarse muy corto. Según un estudio, solo seis meses después del lanzamiento público de ChatGPT, el 49% de las empresas afirmó que ya la utilizaba, el 30% que tenía previsto utilizarla y el 93% de los primeros en adoptarla tenía intención de utilizarla más.
Esta floreciente tecnología ya está alterando sectores tan diversos como la sanidad, los servicios financieros y la industria, por citar algunos. Sin embargo, toda nueva tecnología conlleva riesgos, como nuevas vulnerabilidades y modalidades de ataque; y en medio de todo el ruido que rodea a la IA hoy en día, esos riesgos aún no se comprenden bien.
Es evidente que las nuevas tecnologías siempre cambian el panorama de la seguridad. Pero, en mi opinión, es probable que pocas tengan el poder transformador de la IA generativa. A medida que plataformas como ChatGPT ganan terreno, los directivos deben entender los riesgos de ciberseguridad sin precedentes que conllevan y qué hacer al respecto, pues los ciberdelincuentes también buscan cómo explotarla para promover sus objetivos; sean empresariales o geopolíticos.
La parte disruptiva de las innovaciones rompedoras suele venir de las consecuencias inesperadas que traen consigo. Algunos ejemplos los encontramos en la imprenta, el automóvil o más recientemente, en la world wide web, que ha transformado por completo la forma en que las personas se conectan entre sí y acceden a la información, replanteando cuestiones como la intimidad, las fronteras geopolíticas y la libertad de expresión.
«La capacidad de procesamiento de datos del machine learning, con la creatividad de la IA generativa, hace que sea una herramienta mucho más convincente para los ciberdelincuentes».
El machine learning (ML) y las primeras formas de IA llevan ya algún tiempo entre nosotros. Los coches autónomos, los sistemas bursátiles, las soluciones logísticas… funcionan hoy con alguna combinación de ML e IA. Pero se limitan, en última instancia, a trabajar con los datos que se han introducido en ellos. La IA generativa es diferente porque sus algoritmos no son necesariamente fijos o estáticos, como suele ocurrir en el ML: a menudo evolucionan constantemente, basándose en las experiencias pasadas del sistema como parte de su aprendizaje; lo que le permite crear información completamente nueva.
Hasta ahora, y por lo que mi experiencia me ha hecho ver, los ciberdelincuentes han evitado en gran medida el ML y otras formas más limitadas de IA, porque sus resultados no son especialmente valiosos para la explotación. Pero la capacidad de procesamiento de datos del ML con la creatividad de la IA generativa hace que sea una herramienta de ataque mucho más convincente.
El matemático e informático británico Alan Turing concibió en la década de 1950 una prueba para comprobar si un ordenador suficientemente avanzado podía ser tomado por humano en una conversación en lenguaje natural. El sistema IA LaMDA de Google superó esa prueba en 2022, lo que pone de manifiesto uno de los principales problemas de seguridad de la IA generativa, es decir, su capacidad para imitar la comunicación humana.
Esa capacidad la convierte en una poderosa herramienta para los esquemas de phishing, que hasta ahora se basaban en mensajes falsos, a menudo plagados de faltas de ortografía. En cambio, los textos y correos electrónicos de phishing creados por IA están pulidos y libres de errores, e incluso pueden emular a un remitente conocido, como el CEO de una empresa dando instrucciones a su equipo. Las tecnologías de deep fake avanzadas llevarán esto un paso más allá, con su capacidad para imitar las caras y voces de las personas y crear «escenas» completas que nunca sucedieron.
La IA generativa puede hacer esto no solo de forma individual, sino también a escala, interactuando con muchos usuarios diferentes simultáneamente para lograr la máxima eficacia y posibilidades de penetración. Y detrás de esos esquemas de phishing podría haber código malicioso también generado por programas de IA para su uso en ciberataques.
Muchas empresas se han subido al carro de los chatbot de IA sin tener en cuenta las implicaciones para sus datos corporativos; especialmente si hablamos de la información sensible, los secretos de la competencia o los registros regulados por la legislación sobre privacidad. De hecho, actualmente no existen protecciones claras para la información confidencial que se introduce en las plataformas públicas de IA, ya se trate de datos personales de salud proporcionados para programar una cita médica o de información corporativa privada que se ejecuta a través de un chatbot para generar un folleto de marketing.
Las aportaciones a un chatbot de IA público pasan a formar parte de la experiencia de la plataforma y podrían utilizarse en futuros cursos de formación. Incluso si esa formación está moderada por humanos y protegida por la privacidad, las conversaciones aún tienen potencial para «vivir» más allá del intercambio inicial, lo que significa que las empresas no tienen el control total de sus datos una vez que se han compartido.
«Las empresas deben aportar su propia vigilancia, sobre todo porque la IA generativa puede erosionar silos de información tradicionales que mantienen la información protegida de forma pasiva».
Los chatbots de IA han demostrado ser susceptibles a las llamadas “alucinaciones”, generando incluso información falsa. Confiar en los resultados de la IA y compartirlos con clientes, partners o el público, o crear estrategias empresariales basadas en ellos, es claramente un riesgo estratégico y para la reputación de las empresas.
Muchas empresas de seguridad planean utilizar la IA para combatirla, desarrollando software para reconocer estafas de phishing generadas por IA, deep fakes y otra información falsa. Considero que este tipo de herramientas será cada vez más importante en el futuro.
Aun así, las empresas deben aportar su propia vigilancia, sobre todo porque la IA generativa puede erosionar los silos de información tradicionales que mantienen la información protegida de forma pasiva. Mientras que la nube ha proporcionado a las empresas una especie de simulacro para hacer frente a las responsabilidades de los datos distribuidos y los sistemas abiertos, la IA generativa introduce nuevos niveles de complejidad que deben abordarse con una combinación de herramientas tecnológicas y políticas informadas.
Desde mi punto de vista, uno de los pasos más importantes que puede dar una empresa para protegerse es evitar pensar que, como no posee ni autoriza el uso de herramientas de IA, no está en peligro. Empleados, partners y clientes pueden estar utilizando plataformas públicas de IA y, consciente o inconscientemente, alimentarlas con información corporativa potencialmente comprometedora.
Y eso que solo estamos al principio de hacia dónde nos llevará esta nueva tecnología.
Greg Young es vicepresidente de ciberseguridad de Trend Micro.

