¿A quién no le ha ocurrido alguna vez en los últimos tiempos? Un número que no está en la agenda de contactos aparece en pantalla… El móvil suena y cuando lo coges, del otro lado de línea reina el silencio. La llamada está activada y los primeros segundos transcurren. El receptor dice «Hola», «Holaaa», «¿Quién es?» una y otra vez, para saber quién está del otro lado, y qué quiere quien le llama. Finalmente, ante el mutismo, decide colgar el teléfono.
Si usted ha atravesado este tipo de situaciones, puede haber sido víctima de ‘Vishing’. Esta es una de las últimas estrategias de la ciberdelincuencia que utiliza la inteligencia artificial (IA) para robar y apropiarse de lo ajeno.
Sí, con cada vez mayor frecuencia, la IA también puede estar en manos de los ‘malos’. Los avances imparables de esta tecnología disruptiva son tentadores para hackers y bandas criminales organizadas en el universo digital, que adecuan sus modus operandi y los perfeccionan para cobrarse víctimas, cuyo número crece a diario. A continuación, estos son algunos de los delitos que ganan más espacio y están vinculados al uso de la IA para fines más que turbios:
1. VISHING, ESA VOZ QUE NO SE ESCUCHA… O ES DE UN CONOCIDO QUE HABLA UN POCO ‘RARO’
Su nombre es inglés surge de mezclar los términos «voice» y «phishing«. Los expertos en seguridad también lo conocen en su jerga como el timo de la doble llamada. Sobre sus peligros ya ha advertido hasta la OSI (Oficina de Seguridad del Internauta), y es frecuente que los bancos envíen a sus clientes emails preventivos alertando sobre esta práctica cada vez más recurrente.
Hay dos modalidades. O, mejor dicho, dos fases de vishing. La primera es la de la llamada de número oculto o desconocido, en la que nadie que llama habla o emite palabra alguna. En ese caso, se está activando una especie de ‘grabadora’ inteligente de sonidos. Las palabras, frases, o expresiones que desliza el receptor, desconcertado o indignado ante su insistencia por intentar saber -en vano- quién se ha comunicado con él, después son utilizadas por ciberdelincuentes especializados en IA. Ellos ‘cocinan’ esos tonos, timbres de voz, formas de hablar de la víctima, para intentar reproducirla o ‘clonarla’.
