La inteligencia artificial (IA) sigue ganando terreno en diversos campos, pero también abre un abanico de riesgos en cuanto a fraudes digitales y ciberseguridad. Matías Nahón, experto en fraude digital corporativo y autor del libro El fraude en la era digital, explicó cómo la IA está siendo utilizada tanto para el bien como para el mal.
«Hoy, el 80% o 90% de las personas que escuchan hablar de inteligencia artificial la asocian con herramientas como ChatGPT», explicó Nahón. A través de aplicaciones como ChatGPT, las personas pueden obtener respuestas a sus dudas de manera más eficiente que realizando búsquedas en Google, aunque sin la posibilidad de verificar las fuentes de la información, lo que genera ciertos riesgos.
Pero el panorama no termina ahí. Según Nahón, un 10% de los usuarios de inteligencia artificial están trabajando con aplicaciones mucho más sofisticadas, como la IA agéntica. Este tipo de IA se utiliza para gestionar tareas específicas en sectores como la medicina o la logística, y puede operar de manera autónoma una vez configurada.
A pesar de sus beneficios, el uso de la inteligencia artificial también ha dado lugar a riesgos graves. Nahón destacó dos problemas fundamentales: el deep fake y los ciberataques. Los deep fakes son imágenes o videos falsificados mediante IA, utilizados para manipular la opinión pública, como en campañas electorales. “Hoy en día, es casi imposible distinguir entre un video real y uno generado por IA, lo que plantea enormes riesgos para la desinformación y la manipulación política”, explicó el experto.
El otro gran desafío que la inteligencia artificial trae consigo son los ciberataques, que, según Nahón, se han disparado más de un 1200% en el último año. Estos ataques, ahora realizados por agentes de IA, se efectúan de manera autónoma las 24 horas, 7 días a la semana, vulnerando las redes de seguridad de empresas y gobiernos con una eficacia alarmante.
Con respecto a la protección de los usuarios, Nahón recomendó ser extremadamente cautelosos con las interacciones en línea. «Si no conocemos al remitente de un correo electrónico o mensaje de WhatsApp, lo mejor es evitar hacer clic en enlaces sospechosos, ya que podrían llevarnos a sitios donde nuestra seguridad se vea comprometida», alertó. Además, destacó los peligros de las imitaciones de voz, una técnica que ya ha sido utilizada por criminales para estafar a personas fingiendo ser familiares.
En cuanto a la regulación de la IA, Nahón planteó que los gobiernos aún no tienen un control efectivo sobre la inteligencia artificial, lo que genera incertidumbre sobre cómo se utilizará en el futuro. «Estados Unidos y China están en una carrera tecnológica sin regulación, mientras que Europa ha implementado modelos de regulación según el riesgo de las aplicaciones. El gran temor es que en algún momento se pierda el control de la IA, y eso podría llevarnos a límites impensables», explicó.
A pesar de estos riesgos, Nahón es optimista sobre la capacidad de los seres humanos para poner un freno, aunque advierte que el control podría no llegar a tiempo si no se toman medidas de regulación más estrictas en el futuro cercano.
La inteligencia artificial avanza a pasos agigantados y, aunque ofrece enormes beneficios, también trae consigo grandes desafíos en términos de fraude digital y ciberseguridad, lo que requiere una atención constante tanto de los usuarios como de los reguladores.
Escucha la nota completa:





