Una madre de Scottsdale, Arizona, denunció ante medios locales que fue víctima de un intento de extorsión por parte de delincuentes que clonaron la voz de su hija con ayuda de una inteligencia artificial.
En entrevista con 'Arizona Family', la mujer contó su traumática experiencia. Jennifer DeStefano comentó que su hija de 15 años, Brie, se encontraba fuera de la ciudad esquiando, cuando recibió una llamada de un número de teléfono, el cual no reconoció.
Le puede interesar: La impresionante imagen de Jesucristo obtenida por un cineasta vallecaucano por medio de inteligencia artificial
Como su hija estaba fuera de la ciudad, la mujer atendió el llamado, pensando que podría haber tenido alguna clase de accidente.
De esta manera, en medio de sollozos, escuchó cómo la voz de su hija le decía “mamá, lo arruiné”, al otro lado del teléfono. Comenzó a cuestionarle qué le sucedía, cuando de repente escuchó una voz masculina que parecía estar dándole indicaciones a su hija para que esta le pasara la llamada.
Puede leer: Así ve la Inteligencia Artificial a Gustavo Petro y a Álvaro Uribe
"Escucha, aquí tengo a tu hija... Si llamas a la Policía o a cualquiera, le voy a reventar el estómago tan lleno de drogas y la dejaré en México”, le decía el criminal en la llamada, mientras que su supuesta hija pedía ayuda en el fondo.
Seguidamente, los ladrones le exigían al menos un millón de dólares por la supuesta liberación de la menor. Sin embargo, cuando la mujer le manifestó no poseer tal cantidad de dinero, uno de los criminales bajó el monto a 50.000 dólares.
Por su parte, la mujer dice que nunca dudó que fuera la voz de su hija. Al estar rodeada de otras madres, estas se encargaron de tranquilizarla y en unos minutos confirmaron que la menor estaba sana y salva.
En este sentido, Subaru Kamampati, profesor de Ciencias de la Computación especializado en inteligencia artificial, se refirió frente al caso diciendo que “ya no puedes confiar en tus oídos”, debido a que las herramientas tecnológicas de clonación de voz están mejorando a un ritmo acelerado y llegando a solo necesitar 3 segundos de una muestra para hacer una clonación.
Lee además: Preguntan a ChatGPT cómo hacer dinero en Colombia y esta fue la preocupante respuesta
Finalmente, Dan Mass, agente del FBI, le dijo al medio que regularmente los extorsionistas que usan métodos como la clonación de voz suelen encontrar a sus víctimas en redes sociales. Su modus operandi se basa en buscar perfiles públicos que tengan la mayor cantidad de información posible sobre la persona y, cuando la obtengan, pedir en su nombre transferencia de dinero, criptomonedas o tarjetas de regalo.
El ChatGPT y el uso de la inteligencia artificial no solo tiene sorprendido al mundo por sus alcances, sino que ha despertado muchas inquietudes y preocupaciones, no solo en el mundo académico y científico, sino entre las autoridades.
La capacidad de ChatGPT para redactar textos muy realistas a gran velocidad y escala hace de esta herramienta de inteligencia artificial un recurso para fraudes y desinformación, pero también un aliado de ciberdelincuentes con pocos conocimientos técnicos al generar códigos en varios lenguajes de programación, advirtió Europol.
Los modelos de lenguaje extenso como ChatGPT tienen un “lado oscuro”, admite la agencia de coordinación policial, que publicó este lunes 27 de marzo su primer informe sobre la posible explotación de este tipo de sistemas de inteligencia artificial por parte de los delincuentes, algo que, dice, “ofrece un panorama sombrío” y un nuevo desafío para la aplicación de la ley.
La relación de Ángela Aguilar y Christian Nodal ha sido mediática. Esta vez, fue el…
Este 7 de noviembre de 2024 se realizó una reunión en la que se dio…
Emcali le informó a la ciudadanía sobre los trabajos que tienen programados este 7 de…
La tensa situación se registró en el norte de la capital vallecaucana. Generó una 'ola'…
Estos grupos se dedicaban a la comisión de hurtos a personas en la modalidad de…
Trump regresó a la Casa Blanca por ganar las elecciones de Estados Unidos que se…