Generative101.club

Médias

13 actualites associees.

Abonnés en hausse, IA bannie : le pari gagnant de The Economist pour l’après-Google

The Economist mise sur l’innovation pour affronter l’ère post-recherche, dominée par l’IA. Le média renforce ses formats vidéo et audio, comme Insider, une série longue mettant en scène ses éditeurs, et bloque l’accès de ses contenus aux LLMs. "L’IA ne remplacera pas l’interaction humaine", souligne Luke Bradley-Jones, son président. Avec 1,25 million d’abonnés (+3 % sur un an), le groupe mise aussi sur des outils internes pour fidéliser son audience.

Digiday · 06/10/2025

Info : 45,4 % des éditeurs de Substack utilisent l'IAG, mais des réserves persistent

Une étude récente menée par Arielle Swedback révèle que 45,4 % des 2 000 éditeurs Substack interrogés utilisent l'IA, principalement pour des tâches de productivité et de recherche. Les hommes de plus de 45 ans sont les plus enclins à adopter ces outils, notamment dans les catégories Technologie et Business. Les femmes, quant à elles, expriment davantage de réserves. L'IA est perçue comme un assistant précieux, aidant même les personnes en situation de handicap à mieux s'exprimer. Cependant, des inquiétudes persistent quant à l'érosion de la créativité et aux questions éthiques. Comme le souligne un éditeur, "Creativity is like a muscle. You have to use it or it withers away."

Substack · 24/07/2025

Le "AI Mode" de Google secoue les éditeurs web et menace sérieusement leur trafic

Google déploie actuellement son "AI Mode" dans la recherche, inquiétant les éditeurs web qui voient leur trafic chuter drastiquement. Le Daily Mail rapporte par exemple 44% de clics en moins depuis les résumés générés par l'IA. Les gagnants : Google qui monétise avec des publicités, les annonceurs bénéficiant de requêtes plus longues, et les éditeurs ayant diversifié leurs revenus. Les perdants : sites d'actualités, recettes et avis produits perdant leur visibilité traditionnelle.

Digiday · 29/05/2025

Un journaliste crée un livre d'enquête de 200 pages en 2 jours avec trois IA

Benoît Raphael, spécialiste en intelligence artificielle, vient de relever un défi inédit : réaliser un livre d'enquête complet en seulement 48 heures en orchestrant trois systèmes d'IA différents. Pour ce projet intitulé "Les Nouveaux Démiurges", il a utilisé le modèle o3 d'OpenAI pour la recherche documentaire et le fact-checking, produisant 50 pages d'analyse par chapitre, et Claude 3.7 Sonnet pour l'écriture, avec un style inspiré de sa propre plume et de celle d'essayistes américains. "Ce qui a fait la différence ? Un gros travail de méthodologie et de prompting", explique-t-il sur LinkedIn. Dans ce processus, Raphael n'a plus été l'enquêteur mais l'éditeur, dirigeant et orchestrant le travail des intelligences artificielles.

Benoît Raphaël · 22/05/2025

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

Antoine Crehalet · 18/05/2025

Comment Internet meurt à grande vitesse face à l'invasion de l'IA

La "Dead Internet Theory", autrefois simple théorie du complot née sur 4chan en 2021, semble aujourd'hui se concrétiser à un rythme alarmant. Selon un rapport d'Imperva, les bots représentaient déjà plus de la moitié du trafic Internet en 2024, une situation aggravée par l'essor des IA génératives comme ChatGPT. Jake Renzella, enseignant en sciences informatiques, affirme que nous sommes désormais "des citoyens de seconde classe d'Internet", alors que les interactions humaines authentiques sont remplacées par des contenus générés artificiellement. Les motivations économiques et politiques alimentent cette tendance, transformant Internet en espace optimisé pour le profit plutôt que pour l'information ou le divertissement. Face aux prévisions alarmantes de Futurism estimant que 90% du contenu en ligne pourrait être généré par IA d'ici 2026, les experts recommandent de développer un esprit critique face aux contenus en ligne et d'envisager un repli vers des réseaux sociaux plus privés comme Discord.

HuffPost · 18/05/2025

Pinterest s'excuse pour la vague de bans causés par une "erreur interne", non liée à l'IA

Pinterest a officiellement reconnu avoir commis une erreur suite à la désactivation injustifiée de nombreux comptes utilisateurs ces dernières semaines. Contrairement aux spéculations, l'entreprise affirme que ces bannissements massifs ne résultent pas d'une modération alimentée par l'intelligence artificielle, mais plutôt d'une "erreur interne" non précisée. Après des semaines de silence qui ont provoqué la colère de sa communauté, certains envisageant même des actions en justice, Pinterest a finalement présenté ses excuses et réactivé les comptes concernés. Malgré cette rectification, de nombreux utilisateurs considèrent cette réponse comme "trop peu, trop tard", déplorant le manque de réactivité et de transparence de la plateforme.

TechCrunch · 14/05/2025

Audible étend sa bibliothèque d'audiolivres narrés par IA

Audible, le service d'audiolivres d'Amazon, a annoncé mardi un partenariat avec certains éditeurs pour convertir livres imprimés et numériques en audiolivres narrés par intelligence artificielle. Cette initiative vise à étendre rapidement son catalogue face à la concurrence d'Apple et Spotify. Les éditeurs peuvent désormais choisir parmi plus de 100 voix générées par IA, disponibles en anglais, français, espagnol et italien, avec diverses options d'accents et de dialectes. Audible prévoit également de lancer une version bêta de traduction par IA plus tard cette année, offrant des services de traduction texte-texte et parole-parole depuis l'anglais vers l'espagnol, le français, l'italien et l'allemand. Actuellement, plus de 50 000 titres sont déjà étiquetés "Narrated By: Virtual Voice" sur la plateforme, témoignant de la popularité de cette technologie auprès des auteurs disposant de ressources limitées. Cependant, cette évolution suscite des débats dans la communauté de l'édition, certains critiques s'inquiétant de l'impact sur la qualité globale des audiolivres.

TechCrunch · 13/05/2025

"Slop" : l'IA et l'ère du grand n'importe quoi

Le phénomène baptisé "slop" (littéralement "boue informe") menace notre écosystème informationnel. Ce terme désigne l'avalanche de contenus artificiels générés par l'IA qui inonde désormais les plateformes numériques. Selon une étude de l'entreprise Pangram, 7% des articles d'actualité dans le monde seraient aujourd'hui artificiels, avec un pic à 14% pour les sujets technologiques. Pinterest, Google Images, YouTube Shorts et de nombreux réseaux sociaux sont submergés par ces contenus de synthèse souvent absurdes et trompeurs. Les grandes plateformes, loin de combattre cette pollution, l'encouragent activement : TikTok a lancé Symphony, Google propose Dream Screen, et Mark Zuckerberg ambitionne de peupler Facebook d'avatars générés par IA. Cette "merdification" des espaces numériques n'est pas accidentelle mais résulte de choix stratégiques des géants technologiques, transformant la création de "slop" en véritable secteur économique avec ses professionnels et ses méthodes d'optimisation.

Arrêt sur Images · 06/05/2025

Le premier détecteur de sites 100% IA est arrivé

Next.ink, en collaboration avec CheckNews (Libération) et des fact-checkers de Wikipédia, a lancé le premier détecteur de sites entièrement gérés par intelligence artificielle. L'enquête a identifié 3000 faux sites d'information en français (contre 1000 en janvier), qui se font passer pour des médias légitimes avec des rubriques "actualité", des signatures de journalistes fictifs et des images générées par IA. Ces sites, uniquement conçus pour générer des revenus publicitaires, proposent des contenus traduits automatiquement, sans source, souvent plagiés et truffés d'erreurs. Une extension gratuite pour Chrome et Firefox permet désormais d'identifier ces sites frauduleux qui gagnent en visibilité, y compris sur Google Actualités.

Sylvain Montmory · 25/03/2025

Désinformation russe et influence politique menacent les chatbots IA

Selon une étude de NewsGuard, un réseau moscovite baptisé Pravda ("vérité" en russe) tente d'influencer les réponses des principaux chatbots d'IA en injectant massivement de faux contenus dans leurs données d'entraînement. ChatGPT, Gemini et Claude sont particulièrement visés par cette opération de désinformation. En parallèle, l'administration américaine fait pression sur les développeurs d'IA pour qu'ils éliminent ce qu'elle qualifie de "biais idéologiques" dans leurs modèles. Cette double menace soulève des inquiétudes sur la fiabilité de ces outils déjà critiqués pour leurs réponses parfois inventées ou approximatives.

Le Temps · 25/03/2025

Les moteurs de recherche IA peinent à citer correctement leurs sources

Selon une étude du Tow Center for Digital Journalism publiée le 6 mars 2025, les outils de recherche basés sur l'IA présentent d'importants problèmes de citation des contenus journalistiques. Les chercheurs ont testé huit moteurs de recherche IA et constaté que ces outils fournissent souvent des réponses incorrectes plutôt que de reconnaître leurs limites, fabriquent des liens inexistants et contournent les protocoles d'exclusion des robots. Ce phénomène inquiète alors qu'un Américain sur quatre utilise désormais l'IA au lieu des moteurs de recherche traditionnels.

Columbia Journalism Review · 06/03/2025

Les chatbots d’IA sont bloqués par 67% des sites d’actualité les plus fiables, et s'appuient à la place sur des sites de piètre qualité

Une analyse de NewsGuard révèle que 67% des sites d'information de haute qualité bloquent l'accès de leur contenu aux modèles d'IA, contre seulement 9% des sites peu fiables. Cette situation contraint les chatbots comme ChatGPT ou Gemini à s'appuyer davantage sur des sources de moindre qualité, plus susceptibles de diffuser de fausses informations. Parmi les médias fiables qui bloquent l'accès, on trouve Le Monde et Ouest-France, qui souhaitent être rémunérés pour l'utilisation de leur contenu journalistique.

NewsGuard · 17/09/2024