Generative101.club

Éthique

10 actualites associees.

Mistral AI quantifie l'impact écologique de ses LLMs

Mistral AI, pionnier de l'IA ouverte, publie une étude inédite sur l'impact environnemental de ses modèles. En collaboration avec Carbone 4 et l'ADEME, l'entreprise révèle des chiffres clés : 20,4 ktCO₂e et 281 000 m3 d'eau pour l'entraînement de Mistral Large 2. Une avancée majeure pour la transparence dans le secteur. "Nous croyons en une responsabilité collective pour adresser et mitiger les impacts environnementaux de nos innovations."

Mistral AI · 22/07/2025

IA frugale : entre marketing et réalité, le fossé se creuse

Amélie Raoul, chercheuse en IA, dénonce le greenwashing dans le domaine de l'intelligence artificielle. Elle met en lumière le phénomène de l'IA frugale, souvent présentée comme une solution écologique, mais rarement mesurée de manière concrète. Selon elle, les promesses marketing sont loin de la réalité : « Notre IA consomme 90% moins ! » mais 90% moins que quoi ? Les certifications et les slogans verts cachent souvent une absence de données tangibles. Les vrais experts, eux, cherchent des solutions réellement sobres. Une requête GPT-4 consomme 10 Wh, tout comme un chatbot « frugal ». Il est temps de demander des preuves réelles et non des promesses creuses.

Amélie Raoul · 09/07/2025

Disney, Marvel et Universal attaquent Midjourney pour violation massive de droits d'auteur

Luiza Jarovsky, co-fondatrice de l'AI Tech & Privacy Academy, révèle une offensive judiciaire majeure. Disney, Universal, Marvel et Dreamworks poursuivent Midjourney pour violation de droits d'auteur. "Midjourney a créé un service commercial lucratif en copiant sans autorisation nos œuvres protégées", dénoncent les plaignants. L'industrie cinématographique, représentant 260 milliards de dollars et des millions d'emplois, se mobilise contre ce qu'elle qualifie de "vol de propriété intellectuelle systématique".

Luiza Jarovsky · 12/06/2025

Détecter les images générées par IA : un outil "prometteur"

Thomas Buyle, développeur et passionné d'IA, partage sa découverte d'un outil efficace pour identifier les images générées par intelligence artificielle. Ce détecteur permet non seulement de distinguer les images authentiques des fakes, mais aussi d'identifier le modèle d'IA spécifique utilisé pour leur création. L'auteur note toutefois quelques limites: dans son test avec une image de Macron créée par IA, l'outil a correctement identifié qu'il s'agissait d'une image générée artificiellement, mais s'est trompé sur le modèle utilisé (identifiant Stable Diffusion au lieu de Flux). Ce type d'outil devient particulièrement utile dans un contexte où il devient de plus en plus difficile de distinguer à l'œil nu les images authentiques des deepfakes sophistiqués, offrant une solution rapide pour vérifier l'authenticité du contenu visuel en quelques secondes.

Thomas Buyle · 20/05/2025

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

Antoine Crehalet · 18/05/2025

Quand les algorithmes trient les CV comme des spams : l'alerte d'une experte

Dans une publication LinkedIn, Amélie Raoul, doctorante spécialisée en éthique de l'IA, partage les conclusions préoccupantes de ses recherches présentées dans une tribune pour Le Grenier. Elle y décrit comment les algorithmes d'IA peuvent perpétuer des discriminations, notamment dans le recrutement où certains systèmes "trient les CV comme on trie des spams" et "apprennent à exclure sans même qu'on leur demande". Face à ces dérives, elle recommande un changement de culture d'entreprise incluant audits éthiques, chartes développées avec les équipes, interdisciplinarité et compréhension approfondie des enjeux.

Amélie Raoul · 15/05/2025

"Slop" : l'IA et l'ère du grand n'importe quoi

Le phénomène baptisé "slop" (littéralement "boue informe") menace notre écosystème informationnel. Ce terme désigne l'avalanche de contenus artificiels générés par l'IA qui inonde désormais les plateformes numériques. Selon une étude de l'entreprise Pangram, 7% des articles d'actualité dans le monde seraient aujourd'hui artificiels, avec un pic à 14% pour les sujets technologiques. Pinterest, Google Images, YouTube Shorts et de nombreux réseaux sociaux sont submergés par ces contenus de synthèse souvent absurdes et trompeurs. Les grandes plateformes, loin de combattre cette pollution, l'encouragent activement : TikTok a lancé Symphony, Google propose Dream Screen, et Mark Zuckerberg ambitionne de peupler Facebook d'avatars générés par IA. Cette "merdification" des espaces numériques n'est pas accidentelle mais résulte de choix stratégiques des géants technologiques, transformant la création de "slop" en véritable secteur économique avec ses professionnels et ses méthodes d'optimisation.

Arrêt sur Images · 06/05/2025

Anthropic dévoile le "code moral" de son IA Claude

Une étude inédite d'Anthropic, menée sur 700 000 conversations anonymisées, révèle que son IA Claude exprime 3 307 valeurs distinctes lors de ses interactions. L'analyse montre que Claude soutient fortement les valeurs exprimées par les utilisateurs dans 28,2% des cas, les "recadre" dans 6,6% des situations et y résiste activement dans 3% des échanges, illustrant à la fois son alignement et ses vulnérabilités.

COAI · 21/04/2025

IA et recrutement : un expert appelle à la vigilance malgré les gains d'efficacité

Florent Empis, Technical Operating Partner chez The Good Ones, met en garde contre certaines idées reçues sur l'intelligence artificielle dans le recrutement. Bien que l'IA permette de gagner 20 à 30% de temps, il souligne que la simple validation humaine en fin de processus automatisé ne suffit pas à garantir légalité et éthique, comme l'a confirmé l'arrêt Schufa. Il rappelle que les biais sont omniprésents dans les traitements automatisés, malgré les efforts des équipes. Le spécialiste pointe également le problème de l'explicabilité de l'IA, comparable aux zones d'ombre du fonctionnement cérébral humain, nécessitant prudence et recul dans son utilisation.

Florent Empis · 27/03/2025

Privacy : 30% des chatbots IA populaires partagent vos données avec des tiers

Une analyse des pratiques de collecte de données des 10 principaux chatbots IA de l'App Store révèle que tous recueillent des informations utilisateurs, avec une moyenne de 11 types de données sur 35 possibles. Google Gemini est le plus gourmand, collectant 22 catégories de données, dont la localisation précise. 40% des applications suivent la position des utilisateurs, et 30% (Copilot, Poe et Jasper) partagent ces données avec des tiers à des fins publicitaires. DeepSeek, qui stocke les données en Chine, a déjà subi une fuite exposant plus d'un million d'historiques de conversations.

Surfshark · 18/02/2025