Atención con el “Vishing”: Una nueva forma de estafa por IA

Además de correos y mensajes de texto, ahora son las llamadas por teléfono las últimas en ser ocupadas por los cibercriminales, apoyándose en las IA. La nueva tendencia es llamada Vishing, que ocupa esta nueva tecnología para clonar la voz de una persona con fines fraudulentos. Lamentablemente, pareciera que esto solo empieza.

Pareciera que cada día aparecen más maneras en que las IA son usadas por cibercriminales para cometer delitos. La más nueva de estas es el llamado “Vishing”, que consiste en la clonación de la voz de una persona para suplantarla digitalmente.

La clonación de voz funciona mediante la recopilación de audio de la persona que se desea suplantar. Estos datos de audio alimentan una red neuronal (un modelo especifico de IA), para recrear la voz de esta. Una vez que el sistema ha sido entrenado, puede generar un nuevo audio que suena idéntico a la persona, incluso con palabras que no dijo en las grabaciones que alimentaron el sistema.

Para evitar caer en este tipo de fraude, es importante poner atención a los detalles:

– Las emociones: Cuando se conoce una persona es posible identificar tonos e inflexiones que no corresponden a las emociones que generalmente asociamos a ella.

– Palabras: Cuando las muestras no son tan grandes, es posible que el discurso del ciberdelincuente no corresponda con la forma de hablar de la persona suplantada.

– Grabaciones: Muchas veces las estafas de vishing utilizan grabaciones, solicitando ayuda de la persona suplantada y luego habla otra persona que puede actuar como secuestrador. En este caso el secuestrador se niega a que el “secuestrado” pueda entablar una conversación.

– Números desconocidos, ocultos o de otros países: Siempre es sospechoso que personas conocidas se contacten a través de números desconocidos.

– Doble verificación: Muchas veces la forma más simple de identificar estas estafas es intentar comunicarse directamente con la persona suplantada y confirmar que no es ella quien está solicitando ayuda, dinero o información.

Para prevenir en la mayor medida que sucedan casos de Vishing, es necesario ser muy cuidadoso con el uso de información biométrica, es decir, el rostro y la voz, en redes sociales.  Ser siempre cauteloso, sospechar y leer los términos y condiciones de aplicaciones de filtros de rostro y voz, tan populares en la actualidad. los términos y condiciones pueden decir que los datos almacenados son propiedad del desarrollador de la aplicación y que estos pueden ser vendidos a terceros y usados para otros fines diferentes a la naturaleza de la aplicación. La recomendación en estos casos, es no aceptar nunca éstos y abstenerse de usar dichas aplicaciones.

“Hay muchos desafíos hoy en día, pero también oportunidades. Actualmente se utiliza IA en la detección de Malware, en la detección de phishing y de comportamientos sospechosos de usuarios, así como también será utilizada en la detección de amenazas generadas por inteligencias artificiales. Ya existen softwares que contienen redes neuronales de aprendizaje profundo para la detección de amenazas, entre ellos Intercept X de Sophos”, señala Juan Alejandro Aguirre, Senior Manager Sales Engineering LATAM de Sophos.

“Hoy es día es más importante que nunca ser cuidadosos con el uso de la información

personal, especialmente información biométrica en redes sociales y en aplicaciones que parecen ser inofensivas como los filtros, pero que se usan para recopilar datos masivos y entrenar inteligencias artificiales con diversos propósitos, que pueden ser benignos o maliciosos. Volverse cuidadoso es una tarea de concienciación, se debe educar a las personas sobre qué información, como fotos o videos con su rostro, voz, huellas digitales, iris de los ojos, pueden ser utilizada por terceros para suplantarlos y realizar fraudes, de la misma forma que con sus números de identificación se pueden solicitar productos financieros a su nombre”, concluye el ejecutivo.

Fuente:Sophos

 

¿Qué te pareció esta noticia?

ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

ÚLTIMOS ARTÍCULOS