La Chine déploie l’IA à grande échelle, bien au-delà des labs.
La Chine déploie l’IA à grande échelle, bien au-delà des labs. Comme le révèle Pascaline Bertaux (cofondatrice de 359), des géants comme Ping An Good Doctor (diagnostics à 97 % de précision), JD (entrepôts 100 % autonomes) ou Meituan (livraisons optimisées par algorithmes) transforment déjà la santé, la logistique et l’éducation. « L’IA chinoise ne se code pas, elle agit », résume-t-elle. L’Occident régule, la Chine scale.
Pascaline Bertaux · 25/10/2025
Mistral AI quantifie l'impact écologique de ses LLMs
Mistral AI, pionnier de l'IA ouverte, publie une étude inédite sur l'impact environnemental de ses modèles. En collaboration avec Carbone 4 et l'ADEME, l'entreprise révèle des chiffres clés : 20,4 ktCO₂e et 281 000 m3 d'eau pour l'entraînement de Mistral Large 2. Une avancée majeure pour la transparence dans le secteur. "Nous croyons en une responsabilité collective pour adresser et mitiger les impacts environnementaux de nos innovations."
Mistral AI · 22/07/2025
Techno-solutionnisme : et si l'humain conservait sa valeur face à l'IA ?
Diego Hidalgo Demeusois, auteur et conférencier, rend un hommage sarcastique à Laurent Alexandre pour avoir nourri sa réflexion sur la technologie à travers son dernier ouvrage, "Ne faites plus d'études !". Il critique la vision techno-solutionniste de ce dernier, qui prédit un futur où l'humain sera dépassé par la machine. "L’humain n’aura bientôt plus vraiment de valeur", résume-t-il, acerbe. Il invite à préserver l'esprit critique et l'autonomie face à l'efficience algorithmique. Une réflexion nécessaire pour cultiver notre humanité dans un monde technologique.
Diego Hidalgo Demeusois · 15/07/2025
IA frugale : entre marketing et réalité, le fossé se creuse
Amélie Raoul, chercheuse en IA, dénonce le greenwashing dans le domaine de l'intelligence artificielle. Elle met en lumière le phénomène de l'IA frugale, souvent présentée comme une solution écologique, mais rarement mesurée de manière concrète. Selon elle, les promesses marketing sont loin de la réalité : « Notre IA consomme 90% moins ! » mais 90% moins que quoi ? Les certifications et les slogans verts cachent souvent une absence de données tangibles. Les vrais experts, eux, cherchent des solutions réellement sobres. Une requête GPT-4 consomme 10 Wh, tout comme un chatbot « frugal ». Il est temps de demander des preuves réelles et non des promesses creuses.
Amélie Raoul · 09/07/2025
L'IA pense, donc je crois : la mise en garde d'Amélie Raoul
Amélie Raoul, chercheuse en IA, annonce la publication de son article sur "l'IA conversationnelle comme autorité cognitive" à IA-EDU CORIA-TALN 2025. Elle y explore comment des IA comme Grok transforment notre rapport au savoir. "On ne questionne plus, on invoque", souligne-t-elle, mettant en garde contre la délégation de notre esprit critique à des algorithmes perçus comme omniscients. Raoul propose une "pédagogie de l'incertitude algorithmique" pour réapprendre à cultiver notre autonomie cognitive.
Amélie Raoul · 04/07/2025
Avec Eleven v3 (alpha), la parole synthétique devient plus vivante que jamais
ElevenLabs dévoile son modèle Eleven v3 (alpha), une révolution dans le Text to Speech. Ce nouveau modèle offre un réalisme et un contrôle sans précédent, avec des balises audio pour des émotions variées et un dialogue multi-locuteurs. "Eleven v3 comble cette lacune. Il a été conçu de A à Z pour offrir des voix qui soupirent, chuchotent, rient et réagissent — produisant une parole qui semble vraiment réactive et vivante.", expliquent les cofondateurs Mati Staniszewski et Piotr Dabkowski. Disponible en 70 langues, il promet des applications innovantes pour les vidéos, livres audio et outils médias. Une version en temps réel est en développement.
Eleven Labs · 23/06/2025
ChatGPT et activité cérébrale : une étude du MIT révèle des effets inquiétants
Une étude du MIT Media Lab en 2024 révèle que l'utilisation de ChatGPT pour la rédaction d'essais réduit l'activité cérébrale. Sur 54 étudiants, ceux utilisant ChatGPT ont montré une connectivité neuronale réduite et une mémoire immédiate affaiblie. Sylvain Montmory, consultant en IA, souligne : « Plus l’assistance est forte, plus le cerveau se met en veille ». 83% des utilisateurs de ChatGPT étaient incapables de citer une phrase de leur propre texte. Une réflexion s'impose sur l'usage de l'IA.
Sylvain Montmory · 20/06/2025
IA et raisonnement : Apple révèle l'illusion de l'intelligence artificielle générale
Les chercheurs d'Apple dévoilent une étude explosive sur les limites des modèles IA de raisonnement. OpenAI o3, DeepSeek R1 et Claude subissent un "effondrement total de précision" face aux tâches complexes. "Les modèles frontières font face à un effondrement complet au-delà de certaines complexités", révèlent les scientifiques. Cette recherche porte un coup dur aux prétentions d'intelligence artificielle générale, démontrant que ces systèmes restent limités par la reconnaissance de motifs statistiques.
LiveScience · 12/06/2025
Le cerveau derrière ChatGPT alerte sur un futur bouleversé par l'IA
Ilya Sutskever, cofondateur d'OpenAI et cerveau derrière ChatGPT, propage une vision radicale de l'IA. Lors d'un discours à Toronto, il interroge le public présent : "Que va-t-il se passer quand les ordinateurs pourront remplacer tous nos emplois ?" Sutskever décrit un futur "extrême et inimaginable", où les ordinateurs pourraient égaler le cerveau humain. Une réflexion cruciale sur l'impact de l'IA, alors que Sutskever a quitté OpenAI par souci de sécurité.
Benoît Raphaël · 11/06/2025
Startups : l'IA démocratise le développement mais bouleverse l'écosystème
Vanessa Daurian Proust, serial investisseuse et CEO de One Green, observe une révolution dans l'écosystème startup. L'IA génère désormais 95% du code de 25% des startups Y Combinator, démocratisant le développement. "L'IA remet au centre du jeu ce qui fait la qualité d'un projet : pas l'exploit technique mais la meilleure exécution", analyse-t-elle. Cette transformation pourrait réduire les montants levés et abaisser les valorisations initiales des jeunes pousses technologiques.
Vanessa Daurian Proust · 06/06/2025
OpenAI, Google et Anthropic dévoilent leurs guides IA indispensables aux entreprises
Poonam Soni, experte IA suivie par 180K personnes sur Twitter, compile les ressources essentielles publiées par les leaders technologiques. OpenAI, Google et Anthropic viennent de dévoiler neuf guides pratiques couvrant le prompt engineering, la création d'agents IA et l'intégration enterprise. Le catalogue inclut notamment 601 cas d'usage concrets d'IA générative. "J'espère que vous trouverez cela utile", partage Soni en démocratisant l'accès à ces ressources stratégiques pour les professionnels.
Poonam Soni · 03/06/2025
Mistral révolutionne l'OCR avec 99% de précision en temps réel
Mistral lance Document AI, une solution d'OCR révolutionnaire pour l'entreprise. Avec 99% de précision sur textes, écritures manuscrites et tableaux multilingues, la technologie traite jusqu'à 2 000 pages par minute sur un seul GPU. L'outil promet des coûts prévisibles et une latence minimale pour transformer radicalement le traitement documentaire. Une démocratisation de l'intelligence artificielle documentaire qui rend les archives instantanément accessibles aux entreprises.
Mistral AI · 29/05/2025
API Agents : Mistral transforme l'IA en assistant multi-tâches
Mistral AI dévoile son API "Agents" qui transforme Le Chat, un simple générateur de texte, en véritable résolveur de problèmes. Avec des connecteurs intégrés pour le code, la recherche web et l'image, plus une mémoire persistante, cette technologie peut orchestrer plusieurs agents collaboratifs. "L'API Agents simplifie l'implémentation de cas d'usage agentiques", annonce l'entreprise française. Une avancée majeure vers l'IA d'entreprise autonome.
Mistral AI · 27/05/2025
YCombinator se concentre désormais sur les "Full-Stack AI Companies"
Y Combinator, le célèbre incubateur de startups, signale un tournant majeur vers les agents d'intelligence artificielle autonomes. Sa promotion Printemps 2025 comprend de nombreuses startups transformant les logiciels en véritables "collègues virtuels" capables d'écrire du code, traiter des réclamations, trier des emails ou gérer la logistique. Pour l'été, l'incubateur encourage les fondateurs à créer des entreprises entièrement construites autour de ces agents, plutôt que de simples outils pour les acteurs établis. YC souligne également l'importance croissante des fondateurs-designers, la conception devenant un facteur de différenciation clé à mesure que le codage devient plus accessible. Cette tendance pourrait transformer radicalement des industries entières, permettant aux entreprises de fonctionner avec des effectifs réduits tout en offrant une plus grande adaptabilité.
YCombinator · 26/05/2025
Pourquoi la qualité des réponses d'IA Génératives dépend de vos capacités
Tomasz Tunguz, investisseur chez Theory Ventures, révèle le défi majeur (selon lui) des produits IA : contrairement aux logiciels classiques, la qualité dépend entièrement du prompt utilisateur. "L'utilisateur peut percevoir une faible qualité, mais c'est difficile à contrôler", explique ainsi Loïc Houssier de Superhuman. Une solution à ce problème s'avère prometteuse : les questions de suivi automatiques, comme ChatGPT, qui clarifient l'intention et guident vers des résultats plus précis. L'IA devient "collaboratrice".
Tomasz Tunguz · 21/05/2025
L'IA médicale surpasse maintenant la collaboration homme-machine, selon OpenAI
Benoit Raphael partage sur LinkedIn une découverte troublante issue du benchmark "HealthBench" lancé par OpenAI le 12 mai 2025. Si en septembre 2024, la combinaison médecins+IA produisait encore les meilleurs résultats diagnostiques, surpassant à la fois les modèles d'IA seuls et les médecins seuls, la situation a radicalement changé avec l'arrivée des modèles o3 et GPT-4.1 d'avril 2025. Ces nouveaux modèles produisent désormais des réponses d'une qualité telle que l'intervention médicale humaine n'apporte plus de valeur ajoutée au diagnostic. Bien que ces observations se limitent pour l'instant au domaine médical, l'auteur y voit l'illustration d'une tendance plus large où les IA commencent à dépasser les experts humains dans leurs propres domaines d'expertise, tout en continuant à réduire leurs taux d'erreur.
Benoît Raphaël · 18/05/2025
OpenAI lance Codex, son premier agent IA complet dédié au code
OpenAI vient de dévoiler Codex, un nouvel outil d'IA agentique pour la programmation disponible en version préliminaire de recherche. Cette interface, accessible depuis la barre latérale de l'application web ChatGPT, permet aux développeurs expérimentés de déléguer des tâches de codage répétitives et relativement simples à un agent IA qui génère du code prêt pour la production tout en expliquant sa démarche. Contrairement au CLI Codex lancé le mois dernier, cet outil crée un environnement isolé préchargé avec la base de code de l'utilisateur pour refléter fidèlement son environnement de développement. Les développeurs peuvent inclure un fichier "AGENTS.md" dans leur dépôt pour fournir des instructions personnalisées à l'agent. Basé sur codex-1, une version affinée du modèle de raisonnement o3 d'OpenAI, Codex peut prendre entre 1 et 30 minutes pour accomplir une tâche. Bien que l'outil soit conçu pour résoudre les problèmes courants des assistants de codage IA, OpenAI souligne l'importance de réviser manuellement tout code généré avant intégration.
Ars Technica · 16/05/2025
Quand les algorithmes trient les CV comme des spams : l'alerte d'une experte
Dans une publication LinkedIn, Amélie Raoul, doctorante spécialisée en éthique de l'IA, partage les conclusions préoccupantes de ses recherches présentées dans une tribune pour Le Grenier. Elle y décrit comment les algorithmes d'IA peuvent perpétuer des discriminations, notamment dans le recrutement où certains systèmes "trient les CV comme on trie des spams" et "apprennent à exclure sans même qu'on leur demande". Face à ces dérives, elle recommande un changement de culture d'entreprise incluant audits éthiques, chartes développées avec les équipes, interdisciplinarité et compréhension approfondie des enjeux.
Amélie Raoul · 15/05/2025
L'art de trop se compliquer la vie avec les outils : leçons tirées d'un projet d'IA
Florent Bertiaux partage son retour d'expérience sur le piège de la suroptimisation technologique dans ce retour d'expérience. À travers le lancement de Generative101, une plateforme dédiée à l'IA usage-first, il raconte comment une simple différence de préférence d'outils a failli compromettre le projet dès ses débuts. Ce témoignage rappelle que même les experts en accompagnement doivent parfois revenir aux fondamentaux : la technologie doit rester au service du projet, et non l'inverse. Un article de backstages pour tous ceux qui jonglent avec la complexité technique et qui ont besoin de retrouver l'essentiel dans leurs projets d'innovation.
Jamais le vendredi · 13/05/2025
Les 5 critères pour choisir une IA qui protège vos données en 2025
Un expert en formation IA partage cinq critères essentiels pour évaluer la confidentialité des données dans les principaux modèles d'IA en 2025. ChatGPT (OpenAI) offre un contrôle variable des données mais nécessite une désactivation manuelle de l'utilisation pour l'entraînement. Microsoft Copilot propose une maîtrise intégrale avec aucune exploitation commerciale ni entraînement secondaire des données. Claude (Anthropic) se distingue par une conservation minimale et un contrôle omniprésent, bien que moins puissant que ses concurrents. Gemini (Google) présente deux approches différentes selon les versions - la version gratuite utilise les données pour améliorer l'IA tandis que la version professionnelle garantit l'isolation des données. Enfin, Mistral AI, solution européenne d'origine française, privilégie la souveraineté avec des données hébergées en Europe et une rétention minimale, malgré un écosystème encore naissant.
Yvan Demumieux · 05/05/2025
Une bulle IA sur le point d'exploser ? Les signaux inquiétants selon FUTU&R
La revue FUTU&R envisage un possible krach de l'intelligence artificielle dès 2029, voire avant. Plusieurs signaux faibles appuient cette hypothèse : des dépenses astronomiques (OpenAI estimait ses besoins à 7000 milliards de dollars en 2024) pour des revenus limités, une dépendance à des infrastructures coûteuses et vulnérables aux tensions géopolitiques, une économie fondée sur la spéculation, et une concentration inédite du pouvoir entre les "Sept Magnifiques" (Apple, Google, Amazon, Meta, Tesla, Nvidia, Microsoft) qui pèsent ensemble plus de 12000 milliards. Le sociologue Olivier Alexandre souligne qu'investir dans l'IA nécessite désormais 10 milliards contre 50000 dollars pour le logiciel classique, avec des coûts croissants en cerveaux, capitaux et ressources naturelles. Pour de nombreux experts, la question n'est plus "si" mais "quand" cette bulle technologique éclatera.
Antoine Jaubard · 02/05/2025
Comment sont entraînés les modèles d'IA : un processus complexe et coûteux
Selon un article du N/N Group, l'entraînement des grands modèles de langage (LLM) se déroule en trois phases principales. L'apprentissage non supervisé expose d'abord le modèle à d'énormes quantités de données internet. Vient ensuite l'apprentissage supervisé avec des exemples soigneusement sélectionnés, puis l'apprentissage par renforcement avec feedback humain (RLHF). Ce processus, extrêmement énergivore, repose également sur le travail de milliers de personnes pour l'évaluation des contenus.
NNGroup · 02/05/2025
La vague des projets pilotes d'IA en entreprise reflue fortement
Après deux années de multiplication des projets pilotes d'intelligence artificielle (PoC) en interne, les entreprises battent en retraite face à des taux d'échec alarmants. Selon Gartner, la proportion d'organisations développant leurs propres outils d'IA est passée de 50% fin 2023 à seulement 20% fin 2024. Une étude d'IDC révèle que 88% des PoC n'aboutissent pas à un déploiement à grande échelle. Les DSI se tournent désormais vers des solutions d'IA prêtes à l'emploi proposées par leurs éditeurs traditionnels, confrontés au manque d'expertise interne, aux budgets insuffisants et aux attentes irréalistes des dirigeants. Les experts recommandent une approche plus progressive avec des projets ciblés permettant d'obtenir des résultats rapides plutôt que de s'attaquer immédiatement aux problèmes les plus complexes.
Le Monde Informatique · 30/04/2025
OpenAI change les règles du jeu avec PersonQA : que vaut vraiment ChatGPT o3 ?
Une récente étude d'OpenAI révèle que son modèle ChatGPT-O3 hallucine dans 33% des cas face au nouveau benchmark PersonQA, centré sur des questions people. Son successeur O4-mini fait pire avec 48% d'hallucinations. Ce changement de méthodologie d'évaluation, différente du précédent test SimpleQA, soulève des questions sur la pertinence des comparaisons entre générations de modèles d'IA.
SylvAIn Montmory · 24/04/2025
Les modèles économiques de l’IA générative
Selon une publication de Fred Cavazza, les services d'IA générative font face à un modèle économique difficilement viable. À l'inverse d'autres startups tech, les coûts d'entraînement et d'exploitation des modèles génératifs grand public sont astronomiques, rendant ces activités structurellement déficitaires. OpenAI aurait ainsi perdu 5 milliards de dollars en 2024, malgré des prévisions optimistes pour l'avenir. Les solutions les plus rentables se trouvent dans les chatbots verticaux ciblant des connaissances restreintes pour un public professionnel, avec une facturation à l'usage. Les startups du secteur subissent également une concurrence asymétrique des géants technologiques qui peuvent proposer gratuitement ces services en les finançant par d'autres revenus.
Fred Cavazza · 23/04/2025