Generative101.club

Information

23 actualites associees.

Contre l’AI Slop, Humans Commons lance les premières licences “human-first

Nataliya Kosmyna, chercheuse au MIT Media Lab et chez Google, lance Humans Commons, une initiative pionnière pour lutter contre l’AI slop. Avec les licences AI0, elle propose un cadre juridique inédit pour valoriser le travail humain face à l’IA. « Nous voulons agir vite, avec votre aide », souligne-t-elle. Un projet ambitieux, inspiré par des modèles comme Creative Commons, pour rééquilibrer pouvoir et éthique dans l’ère numérique.

Nataliya Kosmyna · 28/10/2025

ChatGPT sans Wikipédia ni Reddit : le symptôme d’un internet verrouillé par les géants

Mathieu Chapon, fondateur de PEAK ACE, décrypte la guerre invisible entre Google, OpenAI et les médias français. Depuis septembre 2025, Wikipédia et Reddit ont disparu des réponses de ChatGPT, tandis que les médias hexagonaux, en procès contre les géants tech, s’effacent aussi des résultats. « Top 10 SEO ou rien », résume-t-il : hors de cette zone, les contenus deviennent invisibles. Une bataille où l’accès à l’information se joue entre algorithmes et droits d’auteur, et où les stratégies marketing traditionnelles (comme les articles sponsorisés) perdent leur pertinence.

Mathieu Chapon · 14/10/2025

Abonnés en hausse, IA bannie : le pari gagnant de The Economist pour l’après-Google

The Economist mise sur l’innovation pour affronter l’ère post-recherche, dominée par l’IA. Le média renforce ses formats vidéo et audio, comme Insider, une série longue mettant en scène ses éditeurs, et bloque l’accès de ses contenus aux LLMs. "L’IA ne remplacera pas l’interaction humaine", souligne Luke Bradley-Jones, son président. Avec 1,25 million d’abonnés (+3 % sur un an), le groupe mise aussi sur des outils internes pour fidéliser son audience.

Digiday · 06/10/2025

La soupe pour cerveau 2.0 : pourquoi les réseaux sociaux 100 % IA de Meta et OpenAI inquiètent

Vincent Flibustier, expert en réseaux sociaux, tire la sonnette d’alarme : OpenAI et Meta préparent des réseaux sociaux 100 % IA, où des vidéos générées artificiellement inonderont nos fils. "Le marché de la soupe pour cerveau est immense", dénonce-t-il. Après le Web 2.0 et ses algorithmes de recommandation, le Web 3.0 promet un contenu sur mesure et infini, conçu pour capter notre attention… au risque de nous y noyer.

Vincent Flibustier · 02/10/2025

Reconnaîtrez-vous une photo IA ? Le défi ludique de RealityCheck

Sylvain Tillon, expert en IA et lutte contre la désinformation, nous partage RealityCheck : un jeu gratuit pour distinguer photos réelles et images générées par IA. Sans inscription ni pub, il propose 20 paires d’images à analyser, mises à jour hebdomadairement. "Un outil ludique pour affûter son regard face aux deepfakes", souligne-t-il. Idéal pour défier ses proches ou sensibiliser en classe. À tester sur realitycheckk.com.

Sylvain Tillon · 26/09/2025

Inception Point AI, dirigée par l’ex-COO de Wondery Jeanine Wright, révolutionne le podcast avec 5 000 émissions et 3 000 épisodes hebdomadaires, produits à ...

Inception Point AI, dirigée par l’ex-COO de Wondery Jeanine Wright, révolutionne le podcast avec 5 000 émissions et 3 000 épisodes hebdomadaires, produits à 1 $ l’unité. Grâce à 50 personnalités IA comme Claire Delish ou Nigel Thistledown, la startup mise sur un modèle ultra-scalable : « Ceux qui appellent ça de la ‘bouillie IA’ sont des luddites paresseux », lance Wright. Objectif ? Créer des milliers d’influenceurs virtuels, tout en explorant les limites éthiques.

The Hollywood Reporter · 13/09/2025

Stanford lance Co-Storm : un assistant de recherche qui pense comme un journaliste, un éthicien ou un enseignant

La blogueuse Alexandra Coutlée a testé Co-Storm, l’outil de recherche de Stanford. Accessible en anglais uniquement, il génère des articles structurés à partir de sources variées (blogs, forums, médias), majoritairement américaines. Son atout ? Quatre personas (journaliste, éthicien, enseignant, spécialiste tech) qui guident la recherche en posant des questions ciblées. Idéal pour lancer une recherche, Co-Storm se combine parfaitement avec d’autres outils comme Gemini pour affiner les résultats. Une version open source est disponible pour éviter le partage de données.

La Geek de service · 16/08/2025

Gemini et ChatGPT grignotent des parts à Google, mais les habitudes résistent

L’IA générative bouleverse nos réflexes de recherche, mais les vieilles habitudes ont la vie dure. Selon une étude qualitative menée par Kate Moran, Maria Rosala et Josh Brown (NNGroup), les utilisateurs, bien que séduits par les gains de temps offerts par les outils comme Gemini ou ChatGPT, restent souvent ancrés à Google par simple familiarité.

NNGroup · 15/08/2025

Info : 45,4 % des éditeurs de Substack utilisent l'IAG, mais des réserves persistent

Une étude récente menée par Arielle Swedback révèle que 45,4 % des 2 000 éditeurs Substack interrogés utilisent l'IA, principalement pour des tâches de productivité et de recherche. Les hommes de plus de 45 ans sont les plus enclins à adopter ces outils, notamment dans les catégories Technologie et Business. Les femmes, quant à elles, expriment davantage de réserves. L'IA est perçue comme un assistant précieux, aidant même les personnes en situation de handicap à mieux s'exprimer. Cependant, des inquiétudes persistent quant à l'érosion de la créativité et aux questions éthiques. Comme le souligne un éditeur, "Creativity is like a muscle. You have to use it or it withers away."

Substack · 24/07/2025

Optimisation de la visibilité pour l'IA : entre techniques efficaces et pratiques spéculatives

Nicolas Mariotte, Partner Manager chez Managerim, révèle une tendance émergente : le SEO pour les IA génératives. Des techniques comme la "prompt injection inversée" ou le détournement de bots publics sont déjà utilisées pour influencer les réponses de ChatGPT ou Claude. Cependant, certaines méthodes restent spéculatives. Les risques éthiques et techniques sont réels, menaçant la qualité de l'information et la robustesse des IA. Comme le souligne Mariotte, "Optimiser pour des IA n’est pas anodin : cela influence les savoirs transmis". Une vigilance collective s'impose.

Nicolas Mariotte · 12/07/2025

Un journaliste crée un livre d'enquête de 200 pages en 2 jours avec trois IA

Benoît Raphael, spécialiste en intelligence artificielle, vient de relever un défi inédit : réaliser un livre d'enquête complet en seulement 48 heures en orchestrant trois systèmes d'IA différents. Pour ce projet intitulé "Les Nouveaux Démiurges", il a utilisé le modèle o3 d'OpenAI pour la recherche documentaire et le fact-checking, produisant 50 pages d'analyse par chapitre, et Claude 3.7 Sonnet pour l'écriture, avec un style inspiré de sa propre plume et de celle d'essayistes américains. "Ce qui a fait la différence ? Un gros travail de méthodologie et de prompting", explique-t-il sur LinkedIn. Dans ce processus, Raphael n'a plus été l'enquêteur mais l'éditeur, dirigeant et orchestrant le travail des intelligences artificielles.

Benoît Raphaël · 22/05/2025

Détecter les images générées par IA : un outil "prometteur"

Thomas Buyle, développeur et passionné d'IA, partage sa découverte d'un outil efficace pour identifier les images générées par intelligence artificielle. Ce détecteur permet non seulement de distinguer les images authentiques des fakes, mais aussi d'identifier le modèle d'IA spécifique utilisé pour leur création. L'auteur note toutefois quelques limites: dans son test avec une image de Macron créée par IA, l'outil a correctement identifié qu'il s'agissait d'une image générée artificiellement, mais s'est trompé sur le modèle utilisé (identifiant Stable Diffusion au lieu de Flux). Ce type d'outil devient particulièrement utile dans un contexte où il devient de plus en plus difficile de distinguer à l'œil nu les images authentiques des deepfakes sophistiqués, offrant une solution rapide pour vérifier l'authenticité du contenu visuel en quelques secondes.

Thomas Buyle · 20/05/2025

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

Antoine Crehalet · 18/05/2025

Comment Internet meurt à grande vitesse face à l'invasion de l'IA

La "Dead Internet Theory", autrefois simple théorie du complot née sur 4chan en 2021, semble aujourd'hui se concrétiser à un rythme alarmant. Selon un rapport d'Imperva, les bots représentaient déjà plus de la moitié du trafic Internet en 2024, une situation aggravée par l'essor des IA génératives comme ChatGPT. Jake Renzella, enseignant en sciences informatiques, affirme que nous sommes désormais "des citoyens de seconde classe d'Internet", alors que les interactions humaines authentiques sont remplacées par des contenus générés artificiellement. Les motivations économiques et politiques alimentent cette tendance, transformant Internet en espace optimisé pour le profit plutôt que pour l'information ou le divertissement. Face aux prévisions alarmantes de Futurism estimant que 90% du contenu en ligne pourrait être généré par IA d'ici 2026, les experts recommandent de développer un esprit critique face aux contenus en ligne et d'envisager un repli vers des réseaux sociaux plus privés comme Discord.

HuffPost · 18/05/2025

Pinterest s'excuse pour la vague de bans causés par une "erreur interne", non liée à l'IA

Pinterest a officiellement reconnu avoir commis une erreur suite à la désactivation injustifiée de nombreux comptes utilisateurs ces dernières semaines. Contrairement aux spéculations, l'entreprise affirme que ces bannissements massifs ne résultent pas d'une modération alimentée par l'intelligence artificielle, mais plutôt d'une "erreur interne" non précisée. Après des semaines de silence qui ont provoqué la colère de sa communauté, certains envisageant même des actions en justice, Pinterest a finalement présenté ses excuses et réactivé les comptes concernés. Malgré cette rectification, de nombreux utilisateurs considèrent cette réponse comme "trop peu, trop tard", déplorant le manque de réactivité et de transparence de la plateforme.

TechCrunch · 14/05/2025

Audible étend sa bibliothèque d'audiolivres narrés par IA

Audible, le service d'audiolivres d'Amazon, a annoncé mardi un partenariat avec certains éditeurs pour convertir livres imprimés et numériques en audiolivres narrés par intelligence artificielle. Cette initiative vise à étendre rapidement son catalogue face à la concurrence d'Apple et Spotify. Les éditeurs peuvent désormais choisir parmi plus de 100 voix générées par IA, disponibles en anglais, français, espagnol et italien, avec diverses options d'accents et de dialectes. Audible prévoit également de lancer une version bêta de traduction par IA plus tard cette année, offrant des services de traduction texte-texte et parole-parole depuis l'anglais vers l'espagnol, le français, l'italien et l'allemand. Actuellement, plus de 50 000 titres sont déjà étiquetés "Narrated By: Virtual Voice" sur la plateforme, témoignant de la popularité de cette technologie auprès des auteurs disposant de ressources limitées. Cependant, cette évolution suscite des débats dans la communauté de l'édition, certains critiques s'inquiétant de l'impact sur la qualité globale des audiolivres.

TechCrunch · 13/05/2025

"Slop" : l'IA et l'ère du grand n'importe quoi

Le phénomène baptisé "slop" (littéralement "boue informe") menace notre écosystème informationnel. Ce terme désigne l'avalanche de contenus artificiels générés par l'IA qui inonde désormais les plateformes numériques. Selon une étude de l'entreprise Pangram, 7% des articles d'actualité dans le monde seraient aujourd'hui artificiels, avec un pic à 14% pour les sujets technologiques. Pinterest, Google Images, YouTube Shorts et de nombreux réseaux sociaux sont submergés par ces contenus de synthèse souvent absurdes et trompeurs. Les grandes plateformes, loin de combattre cette pollution, l'encouragent activement : TikTok a lancé Symphony, Google propose Dream Screen, et Mark Zuckerberg ambitionne de peupler Facebook d'avatars générés par IA. Cette "merdification" des espaces numériques n'est pas accidentelle mais résulte de choix stratégiques des géants technologiques, transformant la création de "slop" en véritable secteur économique avec ses professionnels et ses méthodes d'optimisation.

Arrêt sur Images · 06/05/2025

OpenAI change les règles du jeu avec PersonQA : que vaut vraiment ChatGPT o3 ?

Une récente étude d'OpenAI révèle que son modèle ChatGPT-O3 hallucine dans 33% des cas face au nouveau benchmark PersonQA, centré sur des questions people. Son successeur O4-mini fait pire avec 48% d'hallucinations. Ce changement de méthodologie d'évaluation, différente du précédent test SimpleQA, soulève des questions sur la pertinence des comparaisons entre générations de modèles d'IA.

SylvAIn Montmory · 24/04/2025

Anthropic dévoile les usages malveillants de Claude

Anthropic révèle dans un rapport les détournements de son IA Claude. Un cas notable implique une opération d'influence utilisant l'IA pour orchestrer des réseaux de bots sur les réseaux sociaux. D'autres abus concernent le vol d'identifiants, des fraudes au recrutement et la création de logiciels malveillants. L'entreprise renforce ses mesures de protection.

Anthropic · 23/04/2025

Le premier détecteur de sites 100% IA est arrivé

Next.ink, en collaboration avec CheckNews (Libération) et des fact-checkers de Wikipédia, a lancé le premier détecteur de sites entièrement gérés par intelligence artificielle. L'enquête a identifié 3000 faux sites d'information en français (contre 1000 en janvier), qui se font passer pour des médias légitimes avec des rubriques "actualité", des signatures de journalistes fictifs et des images générées par IA. Ces sites, uniquement conçus pour générer des revenus publicitaires, proposent des contenus traduits automatiquement, sans source, souvent plagiés et truffés d'erreurs. Une extension gratuite pour Chrome et Firefox permet désormais d'identifier ces sites frauduleux qui gagnent en visibilité, y compris sur Google Actualités.

Sylvain Montmory · 25/03/2025

Désinformation russe et influence politique menacent les chatbots IA

Selon une étude de NewsGuard, un réseau moscovite baptisé Pravda ("vérité" en russe) tente d'influencer les réponses des principaux chatbots d'IA en injectant massivement de faux contenus dans leurs données d'entraînement. ChatGPT, Gemini et Claude sont particulièrement visés par cette opération de désinformation. En parallèle, l'administration américaine fait pression sur les développeurs d'IA pour qu'ils éliminent ce qu'elle qualifie de "biais idéologiques" dans leurs modèles. Cette double menace soulève des inquiétudes sur la fiabilité de ces outils déjà critiqués pour leurs réponses parfois inventées ou approximatives.

Le Temps · 25/03/2025

Les moteurs de recherche IA peinent à citer correctement leurs sources

Selon une étude du Tow Center for Digital Journalism publiée le 6 mars 2025, les outils de recherche basés sur l'IA présentent d'importants problèmes de citation des contenus journalistiques. Les chercheurs ont testé huit moteurs de recherche IA et constaté que ces outils fournissent souvent des réponses incorrectes plutôt que de reconnaître leurs limites, fabriquent des liens inexistants et contournent les protocoles d'exclusion des robots. Ce phénomène inquiète alors qu'un Américain sur quatre utilise désormais l'IA au lieu des moteurs de recherche traditionnels.

Columbia Journalism Review · 06/03/2025

Les chatbots d’IA sont bloqués par 67% des sites d’actualité les plus fiables, et s'appuient à la place sur des sites de piètre qualité

Une analyse de NewsGuard révèle que 67% des sites d'information de haute qualité bloquent l'accès de leur contenu aux modèles d'IA, contre seulement 9% des sites peu fiables. Cette situation contraint les chatbots comme ChatGPT ou Gemini à s'appuyer davantage sur des sources de moindre qualité, plus susceptibles de diffuser de fausses informations. Parmi les médias fiables qui bloquent l'accès, on trouve Le Monde et Ouest-France, qui souhaitent être rémunérés pour l'utilisation de leur contenu journalistique.

NewsGuard · 17/09/2024