En la era digital, las plataformas de mensajería instantánea como WhatsApp se han convertido en herramientas esenciales para la comunicación personal y profesional. Sin embargo, su popularidad también ha hecho que sean un blanco atractivo para los delincuentes que buscan aprovecharse de los usuarios a través de fraudes y estafas.
Aunque WhatsApp es una plataforma segura, la creciente ola de fraudes en la aplicación es una preocupación real para millones de personas, especialmente para aquellos que aún no conocen los riesgos y las estrategias utilizadas por los estafadores. Cabe resaltar que los fraudes a través de WhatsApp pueden adoptar diversas formas, y los estafadores son cada vez más creativos para engañar a sus víctimas.
ÚNETE A NUESTRO CANAL DE WHATSAPP. EL PODER DE LA INFORMACIÓN EN LA PALMA DE TU MANO
Te podría interesar
Desafortunadamente los fraudes a través de WhatsApp son una amenaza cada vez mayor, y los estafadores están utilizando tácticas más sofisticadas para engañar a los usuarios. Mantenerse informado sobre los diferentes tipos de fraudes, no compartir información sensible y verificar siempre la autenticidad de los mensajes sospechosos son pasos esenciales para protegerte.
TAMBIÉN PUEDES LEER: Canadá vs México: Policía de Toronto incauta 835 kilos de cocaína del CJNG
Te podría interesar
Este es el modus operando para robarte por WhatsApp
En los últimos años, la Inteligencia Artificial (IA) ha avanzado a pasos agigantados, mejorando la eficiencia en múltiples áreas, desde la medicina hasta la educación. Sin embargo, este avance tecnológico también ha traído consigo nuevos riesgos, especialmente en el ámbito de la ciberseguridad. Una de las formas más recientes y alarmantes de uso indebido de la IA es en la realización de fraudes a través de plataformas de mensajería instantánea como WhatsApp.
En ese sentido, fue en el programa matutino conocido como Hoy donde se presentó el modus operandi que usa la voz de algún familiar o amigo cercano para reproducir su voz a través de inteligencia artificial montando una situación de riesgo para que la persona receptora del mensaje entre en pánico y acceda a las peticiones de lo que le pide el audio.
SÍGUENOS EN EL SHOWCASE DE LA SILLA ROTA EN GOOGLE NEWS
Cabe destacar que este tipo de audios están construidos por medio de Inteligencia Artificial por lo que dichos mensajes suelen ser falsos y buscan robar datos bancarios o dinero a través de esta nueva forma de fraude, conocida como suplantación de Identidad a Través de Texto y Voz.
La IA puede ser utilizada para crear mensajes escritos que imitan el estilo y tono de una persona. Esto incluye el uso de algoritmos de procesamiento de lenguaje natural (PLN) que analizan cómo una persona normalmente escribe y luego generan textos que parecen legítimos. De esta manera, los delincuentes pueden suplantar la identidad de amigos, familiares o incluso colegas, pidiendo dinero o información personal.
AJA