GRILLE DES PROGRAMMES
Monde
Afrique
Vendredi 13 Septembre
Samedi 14 Septembre
Dimanche 15 Septembre
Lundi 16 Septembre
Aujourd'hui
Mercredi 18 Septembre
Jeudi 19 Septembre
    Pour profiter pleinement des contenus multimédias, vous devez avoir le plugin Flash installé dans votre navigateur. Pour pouvoir vous connecter, vous devez activer les cookies dans les paramètres de votre navigateur. Pour une navigation optimale, le site de RFI est compatible avec les navigateurs suivants : Internet Explorer 8 et +, Firefox 10 et +, Safari 3 et +, Chrome 17 et + etc.
    Technologies

    Technologie: une voix synthétique extorque de l'argent à une entreprise

    media Illustration d'un piratage informatique. Thomas Trutschel/Photothek via Getty Images

    Les avancées des programmes d’intelligence artificielle permettent dorénavant de créer des voix de synthèse imitant à la perfection de véritables personnes. Avec une facilité déconcertante, des pirates informatiques ont mis en pratique ces nouvelles technologies de falsification de la voix pour arnaquer des entreprises.

    Si vous avez aimé le phénomène des infox, pratique détestable consistant à inonder les réseaux sociaux de fausses nouvelles, vous allez adorer les « deepfakes ». Le terme, ainsi dénommé par les anglophones, est la contraction « deep learning » ou apprentissage profond qu’offrent maintenant les programmes issus des technologies d’intelligence artificielle et de « fake » signifiant que les séquences audio et vidéo générés par ces systèmes sont des faux. La mise au point de ces logiciels qui fonctionnent principalement en réseaux ont donné naissance à de nombreux gadgets et applications sur smartphones. Une ribambelle d’appareils intégrant des IA spécialisées dans la reconnaissance faciale ou la vérification des empreintes digitales permettent par exemple, d’activer son mobile. L’analyse de la voix n’est pas en reste, comme le prouve les nombreux assistants personnels à interface vocale que développent actuellement les géants du web et du commerce en ligne.

    Même l’accent allemand y est…

    Ces programmes excellents dans la reconnaissance vocale et l’imitation des voix humaines font aujourd’hui le bonheur des pirates informatiques. Comme le démontre cette « arnaque au président » d’un nouveau genre dont a été victime la filiale au Royaume-Uni d’une entreprise allemande du secteur de l’énergie. Les attaquants ont utilisé la voix synthétisée du dirigeant du groupe afin de gruger les employés de la société. Les pirates ont procédé en deux temps, le patron factice ordonne par téléphone à un haut cadre de l’entreprise de virer en urgence des fonds sur le compte d’un sous-traitant hongrois. La victime de la supercherie au bout du fil reconnaît la voix de son patron. Tout y est !  Ses intonations, le timbre de sa voix ainsi que son accent allemand. Un courriel contenant les informations nécessaires pour effectuer le virement confirme ensuite cette demande verbale. L’ordre écrit provient bien de la véritable adresse web du grand patron, sauf que sa boite électronique avait été préalablement piratée. Environ 220 000 euros ont été ainsi déposés sur un compte externe entièrement géré par les attaquants.

    Ce genre d’arnaque reste pour l’instant assez marginal, mais le phénomène prend de l’ampleur selon le spécialiste de la sécurité informatique Symantec. Le « deepfake » audio est plus facile à mettre en œuvre qu'une vidéo qui semble vraisemblable et les arnaques effectuées par des voix de synthèse bidon sont largement sous-estimées par les entreprises, estiment les experts en cybersécurité. Ils ont identifié trois autres affaires similaires dans lesquelles des voix de dirigeants ont été imitées. L’une de ces sociétés aurait perdu ainsi des millions de dollars sur un simple coup fil de son patron virtuel.

    Sur le même sujet
    Commentaires

    Republier ce contenu

    X

    Vous êtes libres de republier gratuitement cet article sur votre site internet. Nous vous demandons de suivre ces Règles de base

    Le Partenaire s'engage à ne pas porter atteinte au droit moral des journalistes. A ce titre, le Contenu devra être reproduit et représenté par le Partenaire tel qu'il a été mis à disposition par RFI, sans modifications, coupures, ajouts, incrustations, altérations, réductions ou insertions

    Ajoutez cet article à votre site Web en copiant le code ci-dessous.

    Republier ce contenu

    X

    Vous êtes libres de republier gratuitement cet article sur votre site internet. Nous vous demandons de suivre ces Règles de base

    Le Partenaire s'engage à ne pas porter atteinte au droit moral des journalistes. A ce titre, le Contenu devra être reproduit et représenté par le Partenaire tel qu'il a été mis à disposition par RFI, sans modifications, coupures, ajouts, incrustations, altérations, réductions ou insertions

    Ajoutez cet article à votre site Web en copiant le code ci-dessous.

     
    Désolé mais le délai de connexion imparti à l'opération est dépassé.