Les Beatles ont une fois de plus captivé des millions de fans à travers le monde en créant une nouvelle chanson grâce à l’intelligence artificielle (IA). Cette mélodie a été formée à partir de fragments d’enregistrements anciens, minutieusement remasterisés par l’IA. Ce chef-d’œuvre tout frais du légendaire groupe de rock a suscité un vif engouement mondial, mais il soulève également une problématique complexe : l’aptitude de l’IA à reproduire des voix ou à générer des images via les deepfakes.
Actuellement, les fraudes par deepfakes de voix ou d’images demeurent encore très peu communes étant donné que les outils disponibles pour les créer ne sont pas encore largement répandus, ni suffisamment aboutis. Cependant, leur potentiel d’utilisation frauduleuse reste alarmant, surtout étant donné la constante évolution de la technologie associée.
Quelles sont les réelles capacités du deepfake vocal ?
OpenAI a récemment démontré que l’un de ses modèles d’API audio pouvait générer de la parole humaine à partir de simples textes. Ce logiciel d’OpenAI est même considéré comme étant le plus proche de la véritable parole humaine à ce jour.
Dans un avenir très proche, de tels modèles pourraient rapidement devenir des outils privilégiés entre les mains de cybercriminels. L’API audio permet de convertir un texte en parole, avec plusieurs options de voix proposées aux utilisateurs. Bien que le modèle actuel d’OpenAI ne puisse pas encore être utilisé pour créer des deepfakes vocaux convaincants, il témoigne de la rapide avancée des technologies de synthèse vocale.
Actuellement, il existe peu d’appareils capables de produire des deepfakes vocaux d’une qualité indiscernable de la véritable voix humaine. Cependant, ces derniers mois ont vu de plus en plus d’outils basés sur l’IA démontrer leur capacité à générer des voix incroyablement proches de la réalité. Autrefois réservée aux programmeurs expérimentés, cette tâche est désormais intuitive et accessible à tous. Dans un futur proche, on peut s’attendre à des modèles produisant des résultats d’une qualité remarquable.
La fraude par intelligence artificielle reste encore rare, bien que quelques cas “réussis” aient déjà été signalés. En octobre dernier, par exemple, le capital-risqueur américain Tim Draper avait averti ses abonnés sur Twitter que des escrocs utilisaient sa voix sans son consentement pour commettre des fraudes. Tim a souligné que les demandes d’argent formulées avec sa voix étaient en réalité le résultat d’une intelligence artificielle.
Comment se prémunir contre de tels risques ?
Jusqu’à présent, les voix deepfake ne sont peut-être pas encore perçues comme de réelles menaces dans le cyberespace. En effet, les cas où elles sont utilisées à des fins malveillantes restent rares pour l’instant.
Cependant, cela ne signifie pas qu’il ne soit pas important de prendre des mesures préventives dès maintenant. Une vigilance particulière est essentielle lors des conversations téléphoniques. Si la voix de votre interlocuteur est de qualité médiocre, comporte des bruits parasites, ou semble artificielle voire monotone, il est peut-être temps d’être prudent.
Un moyen pour tester l’authenticité de votre interlocuteur est de poser des questions atypiques. Par exemple, une question sur sa couleur préférée déstabiliserait une voix générée artificiellement, car ce n’est pas une requête habituelle des fraudeurs. Même si l’attaquant tente de répondre en tapant manuellement sa couleur préférée pour simuler une réponse vocale, le délai de réponse révélera la supercherie.
Opter pour une solution de sécurité fiable et exhaustive constitue une autre mesure sûre. Bien qu’elles ne puissent pas détecter à 100 % les voix deepfake, ces solutions aident à éviter les sites douteux, les paiements risqués, les téléchargements de logiciels malveillants, et à protéger les navigateurs ainsi que les fichiers contre d’éventuelles contaminations.
“Actuellement, il est important de ne pas surestimer la menace des voix deepfake ou de commencer à les voir là où elles ne sont pas. Bien que la technologie actuelle ne puisse pas encore produire des voix suffisamment réalistes pour nous tromper facilement, il faut tout de même garder à l’esprit que la menace vocale est bien réelle et que la fraude par deepfake deviendra bientôt une réalité,” explique Dmitry Anikin, Data Scientist Senior chez Kaspersky.
Communiqué