in ,

Microsoft révèle VASA-1, des avatars IA réalistes en suspens !

Intelligence Artificielle Avatars Réalistes Deep Fake

Microsoft vient de lever le voile sur une innovation de rupture dans le domaine de l' : VASA-1, une technologie capable de créer des avatars humains d'un réalisme troublant. Le calendrier de disponibilité de cette technologie reste flou. Ce qui suscite des inquiétudes quant à son utilisation malveillante en période électorale.

VASA-1, abréviation de « Visual Affective Skills », est le dernier né des laboratoires de Microsoft. Cette intelligence artificielle peut générer une vidéo animée d'une personne en train de parler. Elle synchronise les mouvements des lèvres à partir d'une simple photo et d'un enregistrement vocal. Le potentiel est immense, de l'enseignement virtuel au soutien thérapeutique.

Intelligence Artificielle Avatars Réalistes Deep Fake

Les craintes de la désinformation avec l'

Les experts en désinformation sonnent l'alarme, car l'abus potentiel de ces applications IA pourrait être dévastateur, notamment en période électorale. Microsoft, consciente de ces enjeux, prend des mesures strictes. « Nous sommes opposés à toute utilisation de notre technologie pour créer du contenu trompeur ou nuisible« , affirment les chercheurs.

Deep Fake Microsoft VASA-1 Éthique IA

Éthique et régulation des technologies IA chez Microsoft

Microsoft insiste sur son engagement envers un développement responsable de l'IA. Aucune démo en ligne, API ou détail d'implémentation supplémentaire ne sera publié tant que la responsabilité d'utilisation ne sera pas garantie. La technologie, bien que prometteuse, est encore marquée par des « artefacts » révélant sa nature générée par IA.

Intelligence Artificielle Avatars Réalistes Deep Fake

Potentiel et précautions

Outre les avatars pour réunions Zoom, comme envisagé par Ben Werdmuller de ProPublica, VASA pourrait transformer l'éducation et le soutien psychologique grâce à des avatars virtuels engageants. Néanmoins, le spectre du mésusage reste prégnant, surtout avec les progrès récents d'autres outils IA comme le « Voice Engine » d'.

D'autres cas de mésusage de l'IA

L'utilisation abusive de l'IA est déjà une réalité. Plus tôt cette année, on a eu une imitation de la voix de Joe Biden dans un appel robotisé. Cela démontre les dangers potentiels de ces technologies. Ce cas illustre les défis éthiques et sécuritaires auxquels les développeurs d'IA doivent faire face.

Deep Fake Microsoft VASA-1 Éthique IA

Alors que Microsoft forge l'avenir avec des avatars ultraréalistes, la balance entre innovation et éthique reste fragile. La promesse de VASA-1 est indéniable. Mais sa mise en œuvre doit être scrupuleusement encadrée pour éviter tout dérapage. L'avenir dira si les bénéfices l'emporteront sur les risques associés à ces technologies de pointe.

Newsletter

Envie de ne louper aucun de nos articles ? Abonnez vous pour recevoir chaque semaine les meilleurs actualités avant tout le monde.

Cliquez pour commenter

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *


The reCAPTCHA verification period has expired. Please reload the page.