El uso de Inteligencia Artificial (IA) ha revolucionado las industrias de todo el mundo. Especialmente la IA generativa, con la que un centenar de personas y empresas trabajan para crear contenidos, fotos, videos, audios y hasta canciones.
En torno al mundo musical, la industria del reguetón se convulsionó recientemente por la creación de un tema con IA, que involucra a un famoso artista del género. Y es que, más allá de la reacción del artista por el uso de su tono de voz, esta situación muestra cómo hoy los seres humanos podemos ser víctimas de otras personas que podrían tener malas intenciones al usar nuestro tono de voz.
Esta práctica en el género del reguetón no es primera vez que ocurre, de hecho, en la red social TikTok es donde más se han difundido temas en el que unen voces de distintos cantantes en una sola canción. Canciones o melodías que se volvieron virales y en algunos casos lograron que se concretara el remix de un tema.
La suplantación de voz entra en lo que conocemos como deepfake de audio. El término significa usar precisamente el tono de voz de una persona para crear audios, con ayuda de la IA, que pueden hasta llegar a ser utilizados para realizar estafas.
“Estos audios creados con voces de otras personas son hechos bajo el uso de machine learning, que es una disciplina de la IA que a través de algoritmos con la capacidad de identificar patrones, en este caso, en la voz de una persona y así fabricar los audios que pueden ser usados en vivo o en grabaciones. Si bien, muchas personas aplican esto para hacer bromas o impulsar herramientas de trabajo bajo el uso de IA, también es una práctica frecuente en cibercriminales para robar y estafar”, señala Martina López, Investigadora de Seguridad informática de ESET Latinoamérica.
Antecedente de robo millonario
Un caso conocido ocurrió en marzo de 2019, donde cibercriminales utilizaron un software basado en IA para imitar la voz del CEO de una empresa de energía alemana para estafar 220 mil euros.
Los delincuentes utilizaron la tecnología para suplantar la identidad del director ejecutivo de la multinacional y engañar al CEO de una de sus sedes en Reino Unido, quien creyó que estaba conversando con su jefe a través de una llamada telefónica. El supuesto director solicitó realizar un pago urgente a un proveedor de Hungría.
“Todos somos vulnerables a ser víctimas de una suplantación de voz, es por ello que es importante hoy en día empezar a aplicar medidas de verificación antes de realizar una transferencia de dinero. Por ejemplo, se puede corroborar que el número telefónico sea de la persona que dice ser, así como hacer preguntas de seguridad que solo la persona debería conocer”, recomienda López de ESET Latinoamérica.
Asimismo, la especialista reitera que la tecnología y en especial la IA, que ha tenido una gran connotación este año, no son un peligro si las personas detrás de su uso tienen la conciencia y responsabilidad de trabajar con ella de forma segura.
“Puede que suene repetitivo y hasta rebuscado, pero los avances tecnológicos no solo son ficción. La vida real está alcanzando niveles de digitalización sorprendentes, a los que debemos estar preparados. El autocuidado cada vez es más relevante y con ello un aumento en la necesidad de educarse para no caer en trampas o estafas”, finaliza la investigadora de ESET Latinoamérica.
Hoy muchos países de América, Unión Europea y Asia trabajan en leyes que les permitan la regulación de la IA debido a sus potenciales riesgos en manos inescrupulosas. Chile, por ejemplo, desde el año 2021 tiene una Política Nacional de Inteligencia Artificial, además de tres propuestas que pretenden regular esta tecnología.
Según ESET estas regulaciones son necesarias para el uso debido de la tecnología, aún más cuando la IA está acaparando cada rincón de la vida diaria de las personas, tanto en lo laboral como personal. El uso de esta herramienta debe estar guiada con responsabilidad.