Poco hemos pensado en las consecuencias de que una IA coja varias palabras tuyas y con solo eso pueda usarlas cambiándolas de género o idioma, o usar ese audio tuyo a la carta para llamar y estafar a otras personas, que creerían que efectivamente eres tu.
Esto ya es una realidad. De hecho la compañía Meta (sí, la que está detrás de Facebook, Instagram y whatsapp, por desgracia) no ha querido poner esta IA por ahora al público, precisamente debido a esta peligrosidad. Y sí: por lo visto le bastan a la IA unas pocas palabras de audio tuyas para hacerse con tu persona y de forma muy realista.
¿Debemos pensar ahora mismo en dejar de poner audios nuestros o eliminarlos?. Imaginad a la madre que lo llama su hijo, con su propia voz, y le pide dinero, como ya existe esta estafa online (por ahora sin la voz auténtica de su hijo). Creo que mucha gente caerá en esta trampa, sobre todo muchos mayores. Y como esto mucho más, poneos a pensar en otras consecuencias: en personajes políticos, en vuestro trabajo hacia vuestro jefe, falsas noticias en bocas ajenas, etc. Es algo similar a los fakes de vídeo pero con audio realista. Ya pueden sumar ambos.
Estamos viviendo estos días en un mundo que va cambiar bastante debido a estas IAs. Puede ser algo muy positivo o totalmente lo opuesto. Hay diferentes opiniones al respecto, y muchas de ellas no piensan en otros escenarios en los que sí que va a afectar muchísimo.
Por supuesto no todo seá negativo, de hecho creo que también el uso de IAs podrá conseguir muchas cosas positivas. Pero cada día salen escenarios y funciones que pueden llegar a asustarnos más y en las que nunca habíamos pensado.
El primer modelo generativo de inteligencia artificial para el habla que generaliza las tareas con un rendimiento de vanguardia (inglés):