La inteligencia artificial ya no solo optimiza procesos en empresas y hogares: también alimenta el crecimiento acelerado del cibercrimen. Así lo advirtió el nuevo AI Security Report de Check Point Research, que expone cómo herramientas como FraudGPT y WormGPT redefinen el escenario de las amenazas digitales a nivel global.
El informe señala cinco áreas clave donde la IA maliciosa opera con fuerza: filtraciones de datos sensibles a través de prompts en generadores de texto, suplantación de identidad con deepfakes, manipulación de modelos de lenguaje para difundir noticias falsas, automatización de software malicioso y el uso de plataformas de IA diseñadas exclusivamente para fines delictivos.
Uno de los datos más alarmantes surge del análisis de prompts: 1 de cada 80 representa un riesgo alto de exponer información confidencial, mientras que el 7,5% incluye datos sensibles. Esta situación compromete seriamente la seguridad empresarial y el cumplimiento de normativas internacionales.
“El uso de la IA en la ciberdelincuencia ya no es teórico, sino una realidad en expansión”, afirmó Mario García, director general de Check Point Software para España y Portugal. Según García, los delincuentes aprovechan los modelos generativos para crear audios y textos falsos, programar malware y validar datos robados en mercados clandestinos como Gabbers Shop.
Los especialistas insisten en la necesidad de adaptar las defensas informáticas al nuevo escenario. “Se necesita con urgencia una ciberdefensa que integre tecnologías de detección impulsadas por IA, inteligencia de amenazas actualizada y protocolos de verificación que puedan combatir los engaños generados por texto, audio o video”, advirtió García.
Mientras el cibercrimen evoluciona con rapidez, las organizaciones deben tomar conciencia del uso dual de la inteligencia artificial y reforzar sus medidas para evitar ser víctimas de su lado más oscuro.