“Nous allons nous associer à Microsoft pour explorer s’il existe des moyens de créer une sorte de système de détection d’IA générique utilisant nos archives de contenu pour répondre à la menace émergente d’une IA générique largement utilisée pour le contenu terroriste”, a déclaré Hadley. « Nous sommes convaincus que la génération d’IA peut être utilisée pour empêcher toute utilisation néfaste de la génération d’IA. »
Le partenariat a été annoncé aujourd’hui à la veille du Sommet des dirigeants de l’Appel de Christchurch à Paris, un mouvement visant à éradiquer le terrorisme et les contenus extrémistes d’Internet.
“L’utilisation de plateformes numériques pour diffuser des contenus extrémistes violents est un problème urgent avec des conséquences concrètes”, a déclaré Brad Smith, vice-président et président de Microsoft, dans un communiqué. « En combinant les capacités de la technologie contre le terrorisme avec l’IA, nous espérons contribuer à créer un monde plus sûr, en ligne et hors ligne. »
Alors que des entreprises comme Microsoft, Google et Facebook disposent de leurs propres départements de recherche en IA et déploient probablement déjà leurs propres ressources pour résoudre ce problème, la nouvelle initiative aidera en fin de compte les entreprises qui ne peuvent pas faire face seules à ces efforts.
“Cela sera particulièrement important pour les petites plates-formes qui ne disposent pas de leurs propres centres de recherche en IA”, explique Hadley. “Même aujourd’hui, avec les bases de données de hachage, les petites plateformes peuvent être submergées par ces choses.”
La menace du contenu génératif de l’IA ne se limite pas aux groupes extrémistes. Le mois dernier, l’Internet Watch Foundation, une organisation à but non lucratif basée au Royaume-Uni qui œuvre pour éradiquer les contenus pédopornographiques d’Internet, a publié un rapport détaillant la présence croissante de matériels pédopornographiques (CSAM) générés par des outils d’intelligence artificielle sur le dark web. .
Les chercheurs ont découvert plus de 20 000 images générées par l’IA et publiées sur un forum CSAM du dark web en seulement un mois, dont 11 108 images ont été criminalisées par les chercheurs de l’IWF. Comme l’écrivent les chercheurs de l’IWF dans leur rapport : « Ces images d’IA peuvent être si convaincantes qu’elles sont impossibles à distinguer des images réelles. »
Be First to Comment