Aumentan las estafas con voces clonadas de familiares usando la inteligencia artificial
Los cibercriminales están utilizando sistemas de IA para suplantar la identidad de seres queridos, generando escenarios de urgencia para engañar a las víctimas.
6 de febrero de 2024
Los cibercriminales están empleando la inteligencia artificial (IA) para clonar voces y perpetrar engaños cada vez más sofisticados. Esta técnica, que antes parecía sacada de una película de ciencia ficción, se está convirtiendo en una realidad alarmante en el mundo de la ciberdelincuencia.
Imagínate esta situación: recibis una llamada de un número desconocido y, al contestar, escuchas la voz angustiada de un ser querido que afirma estar en problemas y necesitar dinero urgentemente. Esta escena, aunque ficticia, se está volviendo cada vez más común. Los estafadores utilizan sistemas de IA para clonar voces y simular ser familiares o amigos en situaciones de emergencia.
TE PUEDE INTERESAR: Desde mañana, debate artículo por artículo en diputados por la Ley Ómnibus
La técnica es sorprendentemente simple: los criminales solo necesitan unos pocos segundos de grabación de la voz de la víctima para crear una réplica sintetizada casi indistinguible. Esto les permite generar llamadas convincentes que pueden engañar incluso a personas cercanas al supuesto afectado.