Il y a désormais une technologie capable de vous alerter si quelqu'un fabrique une fausse vidéo de vous sur YouTube. Si vous êtes journaliste, candidat à une élection ou responsable gouvernemental, vous pouvez y accéder.
YouTube a annoncé le 10 mars 2026, l'extension de sa technologie de détection de sosies numériques, baptisée «Likeness ID», à un groupe pilote composé de responsables publics, de candidats politiques et de journalistes. L'annonce a été cosignée par Amjad Hanif, (Vice President of Creator Products, YouTube), et Leslie Miller, (vice-présidente chargée des affaires publiques et des politiques gouvernementales).
Cette idée n’est pas fortuite. L'outil, baptisé AI Likeness Detection, existe depuis décembre 2024. Lancé initialement auprès d'acteurs et d'athlètes, il a progressivement été étendu aux créateurs du YouTube Partner Program, où environ 4 millions d'inscrits l'utilisent aujourd'hui. YouTube a commencé à développer cet outil en 2024 avec la Creative Artists Agency, en testant d'abord le dispositif auprès de créateurs de premier plan. C'est donc une technologie rodée que la plateforme étend aujourd'hui à un public nouveau, plus exposé politiquement.
UN FONCTIONNEMENT CALQUE SUR CONTENT ID
Pour comprendre « Likeness ID », il faut d'abord connaître Content ID. Ce système, déployé par YouTube depuis des années, analyse automatiquement les vidéos mises en ligne pour y détecter des contenus protégés par le droit d'auteur. Musique, extrait de film, séquence télévisée, bref, tout est passé au crible. Le dispositif de détection de sosies fonctionne sur un principe similaire, mais au lieu de chercher du contenu protégé par copyright, il scanne les visages générés ou simulés par l'intelligence artificielle.
Pour accéder au programme pilote, les participants doivent d'abord prouver leur identité en envoyant un selfie et une pièce d'identité officielle. Ils peuvent ensuite créer un profil, consulter les correspondances trouvées par l'outil et, le cas échéant, demander la suppression d'une vidéo. YouTube parcourt alors l'intégralité de sa plateforme à la recherche de vidéos générées par IA qui reproduisent votre visage. Si une correspondance est détectée, ils en sont informés. Ils peuvent ensuite décider de demander le retrait ou non du contenu.
Mais la décision finale ne vous appartient pas entièrement. YouTube a précisé que la détection ne garantit pas la suppression automatique. La plateforme continuera de protéger les contenus relevant de la parodie ou de la satire, y compris les critiques visant des dirigeants mondiaux et des personnalités publiques, et évaluera chaque demande de retrait au cas par cas. YouTube ne s'engage pas à effacer mécaniquement tout ce qui ressemble à un deepfake. Elle promet d'alerter, d'instruire, de faciliter les demandes. Mais la modération reste une décision humaine, pondérée par des critères éditoriaux.
DES DONNEES QUI N'ALIMENTERONT PAS L'IA DE GOOGLE
La question des données est fondamentale dans ce dispositif. Vous soumettez votre visage et un document d'identité officiel à une plateforme détenue par Google, l'une des entreprises les plus importantes dans le domaine de l'intelligence artificielle générative. La question se pose donc naturellement : ces données serviront-elles à entraîner des modèles d'IA ?
YouTube a affirmé que les données collectées lors de l'inscription sont utilisées uniquement à des fins de vérification et pour faire fonctionner le dispositif de sécurité, et qu'elles ne serviront pas à entraîner les modèles d'IA générative de Google. L'engagement est explicite. Il faut toutefois noter qu'une clarification de ce type ne surgit pas sans raison. Cette précision est intervenue après que des médias ont révélé que les données biométriques collectées auprès des créateurs du YouTube Partner Program, dans le cadre de la détection des deepfakes, pourraient être utilisées à d'autres fins à l'avenir. La politique de confidentialité de Google stipule en effet que les contenus publics, y compris les informations biométriques, peuvent être utilisés pour entraîner ses modèles d'IA. La promesse de YouTube est donc une réponse directe à une inquiétude légitime. Elle mérite d'être suivie dans la durée.
JOURNALISTES ET POLITIQUES EN PRIORITE
Leslie Miller, vice-présidente chargée des affaires gouvernementales et des politiques publiques chez YouTube, a résumé la logique de cette extension en une phrase : « Cette expansion concerne véritablement l'intégrité de la conversation publique. Nous savons que les risques d'usurpation d'identité par l'IA sont particulièrement élevés pour ceux qui évoluent dans l'espace civique ».
Le raisonnement est solide. Un deepfake ciblant un créateur de contenu peut nuire à sa réputation ou à ses revenus. Même si c'est sérieux, l'impact reste limité à une communauté d'abonnés. Un deepfake ciblant un candidat à une élection ou un journaliste qui couvre un conflit, c'est différent. Une vidéo crédible montrant un candidat tenant des propos qu'il n'a jamais tenus, ou un journaliste cautionnant de fausses théories, peut avoir un impact immédiat sur les processus électoraux ou sur la confiance accordée aux médias. La distinction est importante, et YouTube l'assume publiquement en ciblant cette population en priorité.
Ce choix s'inscrit aussi dans un calendrier politique précis. La décision tombe de manière opportune, alors que les élections de mi-mandat américaines approchent. Les deepfakes générés par IA sont devenus un enjeu majeur lors du cycle électoral de 2024, quand YouTube a mobilisé ses créateurs pour identifier les représentations non autorisées de personnalités publiques. La plateforme a tiré les leçons de cette expérience. Elle anticipe plutôt qu'elle ne réagit.
Le programme ne sera pas disponible partout en même temps. L'outil sera d'abord accessible en France, au Royaume-Uni, aux États-Unis et au Brésil. YouTube prévoit d'ouvrir progressivement son accès au cours des prochains mois, avec l'objectif de le rendre disponible dans le monde entier d'ici à la fin de l'année.
UNE INITIATIVE PRIVEE LA OU LA LOI N'A PAS ENCORE AGI
Ce qui frappe dans cette annonce, c'est la vitesse à laquelle une entreprise privée se positionne sur un terrain que les législateurs n'ont pas encore balisé. En Europe, le règlement sur l'IA (AI Act) est entré progressivement en vigueur, avec des obligations d'étiquetage des contenus synthétiques, mais sans aller jusqu'à imposer des mécanismes de détection aussi précis que « Likeness ID ». Aux États-Unis, le cadre législatif fédéral reste fragmentaire malgré les débats autour du NO FAKES Act.
YouTube avance donc sur ses propres règles. Cette une posture a ses avantages qui sont la rapidité, l’adaptabilité, l’absence de lourdeurs bureaucratiques. Mais elle soulève aussi des questions légitimes. Qui contrôle le contrôleur ? Selon quels critères YouTube décidera-t-elle qu'un contenu relève de la satire plutôt que de la désinformation ? Comment garantir que des demandes de retrait ne seront pas utilisées pour censurer des contenus critiques mais légitimes ?
Ces questions ne disqualifient pas l'initiative. Elles la contextualisent. «Likeness ID» est un progrès réel dans la capacité à détecter et à signaler les usurpations d'identité numériques. Mais ce progrès reste dépendant des décisions d'une entreprise privée, soumise à ses propres intérêts commerciaux, et opérant dans un vide juridique que seuls les législateurs peuvent combler durablement. Pour l'heure, YouTube montre l'exemple. Ce que d'autres plateformes, Meta, TikTok, X, feront de cet exemple reste à observer.
Alioune BA
Spécialitse en Ethique de l’IA
YouTube a annoncé le 10 mars 2026, l'extension de sa technologie de détection de sosies numériques, baptisée «Likeness ID», à un groupe pilote composé de responsables publics, de candidats politiques et de journalistes. L'annonce a été cosignée par Amjad Hanif, (Vice President of Creator Products, YouTube), et Leslie Miller, (vice-présidente chargée des affaires publiques et des politiques gouvernementales).
Cette idée n’est pas fortuite. L'outil, baptisé AI Likeness Detection, existe depuis décembre 2024. Lancé initialement auprès d'acteurs et d'athlètes, il a progressivement été étendu aux créateurs du YouTube Partner Program, où environ 4 millions d'inscrits l'utilisent aujourd'hui. YouTube a commencé à développer cet outil en 2024 avec la Creative Artists Agency, en testant d'abord le dispositif auprès de créateurs de premier plan. C'est donc une technologie rodée que la plateforme étend aujourd'hui à un public nouveau, plus exposé politiquement.
UN FONCTIONNEMENT CALQUE SUR CONTENT ID
Pour comprendre « Likeness ID », il faut d'abord connaître Content ID. Ce système, déployé par YouTube depuis des années, analyse automatiquement les vidéos mises en ligne pour y détecter des contenus protégés par le droit d'auteur. Musique, extrait de film, séquence télévisée, bref, tout est passé au crible. Le dispositif de détection de sosies fonctionne sur un principe similaire, mais au lieu de chercher du contenu protégé par copyright, il scanne les visages générés ou simulés par l'intelligence artificielle.
Pour accéder au programme pilote, les participants doivent d'abord prouver leur identité en envoyant un selfie et une pièce d'identité officielle. Ils peuvent ensuite créer un profil, consulter les correspondances trouvées par l'outil et, le cas échéant, demander la suppression d'une vidéo. YouTube parcourt alors l'intégralité de sa plateforme à la recherche de vidéos générées par IA qui reproduisent votre visage. Si une correspondance est détectée, ils en sont informés. Ils peuvent ensuite décider de demander le retrait ou non du contenu.
Mais la décision finale ne vous appartient pas entièrement. YouTube a précisé que la détection ne garantit pas la suppression automatique. La plateforme continuera de protéger les contenus relevant de la parodie ou de la satire, y compris les critiques visant des dirigeants mondiaux et des personnalités publiques, et évaluera chaque demande de retrait au cas par cas. YouTube ne s'engage pas à effacer mécaniquement tout ce qui ressemble à un deepfake. Elle promet d'alerter, d'instruire, de faciliter les demandes. Mais la modération reste une décision humaine, pondérée par des critères éditoriaux.
DES DONNEES QUI N'ALIMENTERONT PAS L'IA DE GOOGLE
La question des données est fondamentale dans ce dispositif. Vous soumettez votre visage et un document d'identité officiel à une plateforme détenue par Google, l'une des entreprises les plus importantes dans le domaine de l'intelligence artificielle générative. La question se pose donc naturellement : ces données serviront-elles à entraîner des modèles d'IA ?
YouTube a affirmé que les données collectées lors de l'inscription sont utilisées uniquement à des fins de vérification et pour faire fonctionner le dispositif de sécurité, et qu'elles ne serviront pas à entraîner les modèles d'IA générative de Google. L'engagement est explicite. Il faut toutefois noter qu'une clarification de ce type ne surgit pas sans raison. Cette précision est intervenue après que des médias ont révélé que les données biométriques collectées auprès des créateurs du YouTube Partner Program, dans le cadre de la détection des deepfakes, pourraient être utilisées à d'autres fins à l'avenir. La politique de confidentialité de Google stipule en effet que les contenus publics, y compris les informations biométriques, peuvent être utilisés pour entraîner ses modèles d'IA. La promesse de YouTube est donc une réponse directe à une inquiétude légitime. Elle mérite d'être suivie dans la durée.
JOURNALISTES ET POLITIQUES EN PRIORITE
Leslie Miller, vice-présidente chargée des affaires gouvernementales et des politiques publiques chez YouTube, a résumé la logique de cette extension en une phrase : « Cette expansion concerne véritablement l'intégrité de la conversation publique. Nous savons que les risques d'usurpation d'identité par l'IA sont particulièrement élevés pour ceux qui évoluent dans l'espace civique ».
Le raisonnement est solide. Un deepfake ciblant un créateur de contenu peut nuire à sa réputation ou à ses revenus. Même si c'est sérieux, l'impact reste limité à une communauté d'abonnés. Un deepfake ciblant un candidat à une élection ou un journaliste qui couvre un conflit, c'est différent. Une vidéo crédible montrant un candidat tenant des propos qu'il n'a jamais tenus, ou un journaliste cautionnant de fausses théories, peut avoir un impact immédiat sur les processus électoraux ou sur la confiance accordée aux médias. La distinction est importante, et YouTube l'assume publiquement en ciblant cette population en priorité.
Ce choix s'inscrit aussi dans un calendrier politique précis. La décision tombe de manière opportune, alors que les élections de mi-mandat américaines approchent. Les deepfakes générés par IA sont devenus un enjeu majeur lors du cycle électoral de 2024, quand YouTube a mobilisé ses créateurs pour identifier les représentations non autorisées de personnalités publiques. La plateforme a tiré les leçons de cette expérience. Elle anticipe plutôt qu'elle ne réagit.
Le programme ne sera pas disponible partout en même temps. L'outil sera d'abord accessible en France, au Royaume-Uni, aux États-Unis et au Brésil. YouTube prévoit d'ouvrir progressivement son accès au cours des prochains mois, avec l'objectif de le rendre disponible dans le monde entier d'ici à la fin de l'année.
UNE INITIATIVE PRIVEE LA OU LA LOI N'A PAS ENCORE AGI
Ce qui frappe dans cette annonce, c'est la vitesse à laquelle une entreprise privée se positionne sur un terrain que les législateurs n'ont pas encore balisé. En Europe, le règlement sur l'IA (AI Act) est entré progressivement en vigueur, avec des obligations d'étiquetage des contenus synthétiques, mais sans aller jusqu'à imposer des mécanismes de détection aussi précis que « Likeness ID ». Aux États-Unis, le cadre législatif fédéral reste fragmentaire malgré les débats autour du NO FAKES Act.
YouTube avance donc sur ses propres règles. Cette une posture a ses avantages qui sont la rapidité, l’adaptabilité, l’absence de lourdeurs bureaucratiques. Mais elle soulève aussi des questions légitimes. Qui contrôle le contrôleur ? Selon quels critères YouTube décidera-t-elle qu'un contenu relève de la satire plutôt que de la désinformation ? Comment garantir que des demandes de retrait ne seront pas utilisées pour censurer des contenus critiques mais légitimes ?
Ces questions ne disqualifient pas l'initiative. Elles la contextualisent. «Likeness ID» est un progrès réel dans la capacité à détecter et à signaler les usurpations d'identité numériques. Mais ce progrès reste dépendant des décisions d'une entreprise privée, soumise à ses propres intérêts commerciaux, et opérant dans un vide juridique que seuls les législateurs peuvent combler durablement. Pour l'heure, YouTube montre l'exemple. Ce que d'autres plateformes, Meta, TikTok, X, feront de cet exemple reste à observer.
Alioune BA
Spécialitse en Ethique de l’IA