Generative101.club

Détecter les images générées par IA : un outil "prometteur"

Thomas Buyle, développeur et passionné d'IA, partage sa découverte d'un outil efficace pour identifier les images générées par intelligence artificielle. Ce détecteur permet non seulement de distinguer les images authentiques des fakes, mais aussi d'identifier le modèle d'IA spécifique utilisé pour leur création. L'auteur note toutefois quelques limites: dans son test avec une image de Macron créée par IA, l'outil a correctement identifié qu'il s'agissait d'une image générée artificiellement, mais s'est trompé sur le modèle utilisé (identifiant Stable Diffusion au lieu de Flux). Ce type d'outil devient particulièrement utile dans un contexte où il devient de plus en plus difficile de distinguer à l'œil nu les images authentiques des deepfakes sophistiqués, offrant une solution rapide pour vérifier l'authenticité du contenu visuel en quelques secondes.

Informations

Source

Thomas Buyle

Publication

20/05/2025

Articles connexes

Stanford lance Co-Storm : un assistant de recherche qui pense comme un journaliste, un éthicien ou un enseignant

La blogueuse Alexandra Coutlée a testé Co-Storm, l’outil de recherche de Stanford. Accessible en anglais uniquement, il génère des articles structurés à partir de sources variées (blogs, forums, médias), majoritairement américaines. Son atout ? Quatre personas (journaliste, éthicien, enseignant, spécialiste tech) qui guident la recherche en posant des questions ciblées. Idéal pour lancer une recherche, Co-Storm se combine parfaitement avec d’autres outils comme Gemini pour affiner les résultats. Une version open source est disponible pour éviter le partage de données.

Un journaliste crée un livre d'enquête de 200 pages en 2 jours avec trois IA

Benoît Raphael, spécialiste en intelligence artificielle, vient de relever un défi inédit : réaliser un livre d'enquête complet en seulement 48 heures en orchestrant trois systèmes d'IA différents. Pour ce projet intitulé "Les Nouveaux Démiurges", il a utilisé le modèle o3 d'OpenAI pour la recherche documentaire et le fact-checking, produisant 50 pages d'analyse par chapitre, et Claude 3.7 Sonnet pour l'écriture, avec un style inspiré de sa propre plume et de celle d'essayistes américains. "Ce qui a fait la différence ? Un gros travail de méthodologie et de prompting", explique-t-il sur LinkedIn. Dans ce processus, Raphael n'a plus été l'enquêteur mais l'éditeur, dirigeant et orchestrant le travail des intelligences artificielles.

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

"Slop" : l'IA et l'ère du grand n'importe quoi

Le phénomène baptisé "slop" (littéralement "boue informe") menace notre écosystème informationnel. Ce terme désigne l'avalanche de contenus artificiels générés par l'IA qui inonde désormais les plateformes numériques. Selon une étude de l'entreprise Pangram, 7% des articles d'actualité dans le monde seraient aujourd'hui artificiels, avec un pic à 14% pour les sujets technologiques. Pinterest, Google Images, YouTube Shorts et de nombreux réseaux sociaux sont submergés par ces contenus de synthèse souvent absurdes et trompeurs. Les grandes plateformes, loin de combattre cette pollution, l'encouragent activement : TikTok a lancé Symphony, Google propose Dream Screen, et Mark Zuckerberg ambitionne de peupler Facebook d'avatars générés par IA. Cette "merdification" des espaces numériques n'est pas accidentelle mais résulte de choix stratégiques des géants technologiques, transformant la création de "slop" en véritable secteur économique avec ses professionnels et ses méthodes d'optimisation.