Le défi de l'identification des contenus générés par l'IA Google, Meta et OpenAI passent à l'action.

Le défi de l'identification des contenus générés par l'IA : Google, Meta et OpenAI agissent

Les inquiétudes suscitées par la prolifération des contenus générés par l'intelligence artificielle (IA) ont incité les géants de la tech... s'unir dans une initiative cruciale. Des entreprises de premier plan ont récemment annoncé des mesures innovantes pour identifier et marquer les images et les fichiers créés ou manipulés à l'aide de l'IA, ce qui permet de lutter contre le risque de désinformation et de manipulation sur diverses plateformes.

Les grandes entreprises technologiques, notamment Google, Meta et OpenAI, ont récemment dévoilé une série d'initiatives visant à s'attaquer au problème croissant de la désinformation et des "deepfakes" générés par les intelligence artificielle (IA). Ces mesures visent à fournir une couche de protection contre la manipulation de contenu, en particulier dans le contexte des élections de 2024.

Le défi de l'identification des contenus générés par l'IA Google, Meta et OpenAI passent à l'action.

La coalition pour la provenance et l'authenticité des contenus (C2PA)

L'une des étapes les plus importantes de cette collaboration est la participation d'entreprises de l'Union européenne. la Coalition for Content Provenance and Authenticity (C2PA) (Coalition pour la preuve et l'authenticité des contenus). La coalition, qui comprend des acteurs de premier plan de l'industrie numérique, des médias, des banques et des fabricants d'appareils photo, propose un système d'échange d'images et de données entre l'Union européenne et l'Union européenne. certificat standard pour traiter la question de l'authenticité du contenu. Tout en reconnaissant qu'il n'existe pas de solution unique et efficace dans tous les cas, l'engagement de ces entreprises constitue un pas important vers l'atténuation des risques associés aux contenus générés par l'IA.

Défis actuels et réponses technologiques

Pour tenter de lutter contre la prolifération des faux contenus, Google, Cible y OpenAI ont rejoint la coalition pour la preuve et l'authenticité des contenus (C2PA). Cette coalition propose une norme de certification pour l'identification des contenus générés par l'IAimpliquant divers acteurs de l'industrie numérique, des médias et d'autres secteurs.

Le défi de l'identification des contenus générés par l'IA Google, Meta et OpenAI passent à l'action.

Toutefois, les mesures proposées par ces entreprises ne constituent pas une solution unique. L'introduction de la norme C2PA pour les métadonnées d'image a ses limites techniques.comme le souligne OpenAI dans son communiqué de presse. L'entreprise prévient qu'il ne faut pas se fier exclusivement à ces métadonnées, car elles peuvent facilement être supprimées accidentellement ou intentionnellement.

Initiatives spécifiques de Google, Meta et OpenAI

Les initiatives de ces entreprises vont des marques visibles sur les images aux messages cachés dans les métadonnées et les pixels générés artificiellement. Google, avec son outil dans le beta SynthIDMeta affirme avoir trouvé des moyens d'identifier même le son généré par l'IA. D'autre part, Meta promet de marquer visuellement les images générées par ses outils d'IA et de les détecter sur ses plateformes, notamment Instagram, Facebook et Threads.

Malgré ces efforts, les entreprises ne fournissent pas de calendrier précis pour la mise en œuvre complète de ces mesures. Étant donné la proximité d'élections importantes en 2024, la pression pour traiter l'influence potentielle du contenu généré par l'IA est palpable.

Cependant, les mesures proposées par ces entreprises ne constituent pas une solution unique. L'introduction de la norme C2PA pour les métadonnées des images a ses limites techniques, comme le souligne OpenAI dans son communiqué de presse. L'entreprise prévient que l'on ne peut pas se fier exclusivement à ces métadonnées, car elles peuvent facilement être supprimées de manière accidentelle ou intentionnelle.

Avertissement d'OpenAI et vulnérabilité de ChatGPT

OpenAI, la société à l'origine du populaire ChatGPT, émet un avertissement important dans son communiqué de presse. En dépit de la adoption de la norme C2PA dans son imageur Dall-3, OpenAI fait remarquer que cette n'est pas un remède infaillible. La suppression accidentelle ou intentionnelle de métadonnées laisse place à l'incertitude sur la provenance du contenu, qu'il soit généré par ChatGPT ou par d'autres sources.

L'importance de la protection préventive en période électorale

L'année 2024 étant marquée par des élections cruciales dans plusieurs pays, la nécessité de se protéger contre les contenus générés par l'IA est plus vitale que jamais. Meta, en particulier, souligne son engagement à marquer visuellement les images générées par divers outils d'IA, y compris ceux de Google, OpenAI et d'autres.

Nick Cleggprésident de Affaires publiques Metaindique que l'application de marquage ne se limitera pas à ses propres plateformes, mais sera également étendue à d'autres réseaux, en mettant l'accent sur l'utilisation de l'application de marquage dans le cadre d'un projet de recherche. la collaboration entre différentes entreprises pour résoudre ce problème conjointement. Meta en particulier s'engage non seulement à étiqueter visuellement les images générées par ses outils d'IA, mais aussi à détecter et à identifier celles qui sont partagées sur ses plateformes, telles que Instagram, Facebook y Fils.

Défis futurs et promesses de Google avec SynthID

GoogleLe défi de la deepfakes sur YouTube et met en évidence la résilience de sa méthode créée avec SynthID à d'éventuelles modifications pour la dissimuler. Il stipule que votre approche peut survivre au changement tels que l'ajout de filtres, les changements de couleur et diverses techniques de compression. Google démontre ainsi sa détermination à lutter contre la désinformation dans diverses formes de contenu multimédia. Tout en reconnaissant que ces mesures représentent les dernières technologies disponibles, Google est convaincu que son approche avec SynthID peut être utilisée pour réduire la désinformation.es changements volontaires peuvent être apportés pour le cacher.

Le défi de l'identification des contenus générés par l'IA Google, Meta et OpenAI passent à l'action.

Analyse

Les mesures annoncées par Google, Meta et OpenAI représentent un effort commun de l'industrie pour faire face à la menace croissante de la désinformation générée par l'IA et des deepfakes. Bien que ces initiatives constituent un pas dans la bonne direction, l'absence d'une solution unique et l'avertissement d'OpenAI concernant la vulnérabilité des métadonnées posent des problèmes importants.

Dans ce contexte, le protection préventive devient pertinente, en particulier au cours d'une année électorale marquée par des décisions importantes. La collaboration entre les entreprises et la mise en œuvre efficace de ces mesures seront cruciales pour préserver l'authenticité et la provenance des contenus dans un monde de plus en plus dominé par l'IA.

Partager :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

fr_FRFrançais
Immédiatement en ligne

Et choisissez le contenu négatif que vous souhaitez supprimer

Chat ouvert
Besoin d'aide ?
Bonjour 🤗
Comment pouvons-nous vous aider ?