Desde el inicio del pasado mes(30dias) de julio de 2023, ha surgido una preocupante tendencia en México(país) y otras naciones de América Latina. Los delincuentes han adoptado una estrategia inquietante al hacer uso de sistemas de Inteligencia Artificial para replicar las voces de seres queridos, dando pie a una ola de extorsiones y estafas.
Peligros de la Inteligencia Artificial
Esta reciente modo de notificación fraudulenta marca una transformación significativa respecto a las antiguas estafas telefónicas. En este enfoque actual, los perpetradores logran simular con precisión a un familiar o conocido, generando un nuevo nivel de engaño que plantea desafíos todavía mayores.
En situaciones más alarmantes, se manipula la conexión familiar y se despliega un intento persuasivo en el cual se informa a la víctima que un ser querido está bajo secuestro. En estos casos, inclusive se involucra a un 3.º que simula ser la hija, hijo, madre u otra persona cercana.
Descubrir esta trampa solía ser suficiente sencillo. Ya fuese debido a la presencia física de la persona mencionada o a la perceptible disparidad en las voces.
No es perfecto, pero podrías caer en el engaño
Con la propagación de los sistemas generativos de Inteligencia Artificial, la complejidad de estas situaciones ha aumentado de modo drástica. Estas plataformas tienen la capacidad de reproducir de modo impecable la voz de perfectamente cualquier individuo, lo que ha complejo en gran medida la identificación de estas artimañas.
Actualmente, la tecnología todavía no ha alcanzado el nivel de desarrollo indispensable para replicar de modo precisa y en tiempo real una voz. Esto implica que inevitablemente existirá un lapso o demora entre los intercambios en el diálogo, a menos que las respuestas sean primeramente grabadas, lo que limita la capacidad de apartarse del guión predefinido de la llamada fraudulenta.
Considerando esta situación, se enfatiza la importancia de estar atentos a cualquier demora o desincronización durante la conversación. Además, se refiere alterar el flujo natural del diálogo para interrumpir la secuencia planeada de la llamada. Paralelamente, se ofrecen otros consejos esenciales.
Consejos para no caer en estafas
Si se percibe una calidad robótica en la voz y se localiza un evidente eco de fondo, es altamente posible que esté siendo manipulada por una inteligencia artificial.
El tono y el ritmo de la llamada resultan inusuales, es crucial prestar atención a posibles respuestas que suenen mecánicas o carezcan de las variaciones naturales en la entonación adecuada para el contexto planteado.
Por supuesto, si se recibe una llamada de un número desconocido o que se muestra como “Anónimo”, es en este punto donde se debe elevar la alerta.
Resulta de suma importancia eludir compartir info financiera en cualquier circunstancia. En caso de duda, la opción más prudente siempre será finalizar la llamada y contactar directamente con el familiar en cuestión, manteniendo la calma, ya que en situaciones puede llevar una o dos horas confirmar que todo está en orden y que la notificación previa fue un intento de engaño.
The post(entrada-noticia) Estafadores en México(país) han comenzado a utilizad Inteligencia Artificial para imitar voz de personas first appeared on PasionMovil.