A aceleração e o aprimoramento das ferramentas de criação pela Inteligência Artificial generativa são evidentes. Essas ferramentas têm sido aplicadas na geração, entre várias frentes, de áudios falsos. Além disso, segundo estudo divulgado na revista científica PLoS ONE, os humanos têm dificuldade em distinguir falas humanas de verdade e a dos chamados deepfakes.
Os pesquisadores do University College London (UCL), na Inglaterra, conduziram um experimento com 529 participantes. O objetivo era avaliar a habilidade das pessoas em diferenciar esses dois tipos de áudios, tanto em inglês como em mandarim. Surpreendentemente, mais de um quarto dos voluntários (27%) teve dificuldades em distinguir o que era real e o que foi criado pelo algoritmo de IA. Os áudios testados estavam em inglês e mandarim.
O resultado mostra que a maioria ainda foi capaz de distinguir corretamente em 73% das vezes, mas ainda há uma parcela grande que não consegue. Mesmo após aprenderem técnicas para discernir as falas falsas, houve pouca variação na taxa de acerto.
“Nossas descobertas confirmam que os humanos são incapazes de detectar, com segurança, a fala deepfake, tenham ou não recebido treinamento para ajudá-los a identificar conteúdo artificial”, diz Kimberly Mai, autora do estudo, em nota. “Seria prudente que governos e organizações desenvolvessem estratégias para lidar com o abuso dessas ferramentas”, afirma Lewis Griffin, outro autor da pesquisa.
Os autores do estudo, porém, se dizem animados com as potencialidades desse tipo de tecnologia, como a possibilidade de restaurar a voz de pessoas que a perderam em razão de alguma doença.