Descarga las aplicaciones para Android o iOS (iPhone/iPad). Únete al canal de Telegram.

Inteligencia artificial permitía clonar tu voz para pasar verificaciones del banco

La Inteligencia Artificial hace cada vez más estrecha la diferencia entre lo real y lo digital, los avances sugieren que es posible clonar la voz y la imagen de una persona para engañar a otros, según un experimento de The Wall Street Journal.

Infobae.

La periodista Joanna Stern hizo algunas pruebas usando las herramientas: Synthesia para la generación de videos con su imagen o forma de hablar, y ElevenLabs para crear archivos de audio que clonan su voz.

Cabe destacar que de esta manera pudo pasar las verificaciones de voz de su banco, engañar al directivo de una compañía para pedir una entrevista y confundir a su familia con llamadas y videollamadas.

Stern proporcionó datos a las dos plataformas para que pudiera entrenarse y generar el contenido con el que se hicieron los engaños.

A través de Synthesia la periodista alimentó la IA con 30 minutos de video y casi dos horas de audio, esto le permitió crear un avatar personalizado por 1,000 dólares al año, así como una tarifa de suscripción mensual y ofrece otros personajes a un costo mas bajo.

Con esta tecnología hicieron un vídeo para TikTok con el que analizarían el alcance y el resultado fue satisfactorio, aunque en la red social se dieron cuenta de que no era una persona real por sus pocas expresiones faciales y gestos con las manos, concluyendo que para oraciones largas puede ser convincente.

Hicieron una prueba similar con videollamada a la familia de Stern, pero su postura y falta de ingenio hicieron que su familia se diera cuenta de que no era ella.

La herramienta ElevenLabs se cargó con 90 minutos de audios, luego se le dió una instrucción en texto para pedir un audio con el tono de la periodista

El resultado fue mucho más humano, con mejores entonaciones y fluidez que Synthesia, siendo un servicio que la herramienta ofrece por cinco dólares al mes.

Para el experimento hicieron una llamada a la hermana de Stern quien aseguró que se escuchaba igual que ella, pero se dió cuenta de que no era real porque no respiraba al hablar; también llamó al banco donde le pidieron hacer una verificación de voz aportando sus datos personales y los pasó sin problemas, engañando al sistema.

Estos resultados encienden las alertas sobre la Inteligencia Artificial, considerando que cualquiera que tenga su perfil público en internet puede ser suplantado, y es por ello que ambas herramientas puestas a prueba aseguran que trabajan en establecer procesos de verificación para no tener ese problema.

Stern, por su parte, consideró beneficiosas las herramientas: «Mi clon de video carecía de las cosas que me hacen ser yo. Pero también, planeo usar estas herramientas para tener más tiempo para ser un ser humano real».

Redacción Maduradas con información de Infobae.

Lea también:

Preste atención: las razones por las que podrían negarle la entrada a Estados Unidos aunque tenga visa (+Detalles)

Top