Las estafas mediante audios deepfakes

Blog, Consultoría informática especializada, Imagar
Las estafas mediante audios deep fakes

Uno de los nuevos engaños de los que se valen los ciberdelincuentes no tiene que ver con ningún nuevo tipo de software erp sino con la tecnología de deepfakes de voz y con la suplantación de identidad en los correos electrónicos.

Aunque de momento son pocos los casos conocidos de estafas monetarias por deepfakes, los expertos en ciberseguridad advierten de que se trata de una amenaza en auge, comparable con el ransomware. Esto se debe al acelerado perfeccionamiento y abaratamiento de esta tecnología.

Qué son y qué peligros entrañan

Los deepfakes de audio son la principal amenaza de esta tecnología a corto y medio plazo. Es sencillo y barato reproducir la voz de una persona si se consiguen cortes de voz suficientes gracias a la ingeniería social. Por el momento, las deepfakes se han utilizado más que nada para desinformar y, en lo relativo a las empresas, para atacar a la reputación de las compañías suplantando a directivos. Sin embargo, las estafas económicas son otro de los focos donde los ciberdelincuentes pueden centrarse.

Hay que ser muy cuidadosos cuando se trata de grandes transacciones de dinero o datos sensibles. ¿Cómo? Por ejemplo, comprobando quién es el  interlocutor. Otro consejo que te damos desde Imagar es apelar al interlocutor con información comprometida que sólo él o ella pueda conocer.

La tecnología de los deepfakes está evolucionando a gran velocidad, lo que entraña grandes peligros para la ciberseguridad. Las falsificaciones de vídeo y de audio parecen cada vez más reales y más creíbles. Además, su uso se abarata y se simplifica siendo más asequible para los ciberdelincuentes. Por el momento, han sido pocos los ataques e intentos de fraude usando esta herramienta, pero, a medio y largo se puede convertir en una amenaza similar al ransomware.

Hasta ahora, las deepfakes se han usado sobre todo para desinformar, crear noticias falsas, atacar a la reputación de personajes públicos y con fines pornográficos. Es decir, se han enfocado a particulares. Sin embargo, su capacidad para suplantar a personas con éxito, en audio o en vídeo, está haciendo que los ciberdelincuentes estén cada vez más interesados en ellas para atacar y estafar a empresas e instituciones públicas.

Además de para estafas y ataques a la reputación, esta herramienta se está empezando a usar para tratar de evadir controles de seguridad. Este tipo de ataques son un peligro creciente de seguridad informática.

peligro audios deep fakes

La voz, principal amenaza a corto plazo

En estos momentos y en los próximos años, el principal peligro de los deepfakes para empresas e instituciones será el audio. Los motivos son dos:

  • Es mucho más sencillo de crear.
  • Es más creíble que el vídeo al tener menos elementos para poder detectar el engaño.

Un deepfake de audio se puede hacer con unas pocas muestras de voz de la persona a la que se quiere suplantar. Este método y el phishing por email seguirán siendo los intentos de estafa más habituales al ser más sencillos de crear y usar que el vídeo. A esto se suma la extensión de las videollamadas por la pandemia y el perfeccionamiento y abaratamiento de la tecnología.

Estos fraudes mediante voces suplantadas van a tener como principal objetivo a directivos e importantes cargos de empresas para convencerlos de realizar operaciones económicas por las que los delincuentes puedan lograr importantes sumas de dinero.

Otra amenaza creciente de las deepfakes para las empresas son los vídeos sexuales. En estos casos, se usa esta tecnología para generar un impacto negativo en la reputación de las personas y las compañías o para extorsionar y conseguir dinero. Si el deepfake se usa para introducir artificialmente a una persona en un vídeo sexual, el impacto reputacional puede ser importante. De todos modos, en la mayoría de los casos se pueden usar distintos softwares y análisis forenses para demostrar que el vídeo es falso.

Logo teléfono Llámanos Logo correo Escríbenos