Generative101.club

Une bulle IA sur le point d'exploser ? Les signaux inquiétants selon FUTU&R

La revue FUTU&R envisage un possible krach de l'intelligence artificielle dès 2029, voire avant. Plusieurs signaux faibles appuient cette hypothèse : des dépenses astronomiques (OpenAI estimait ses besoins à 7000 milliards de dollars en 2024) pour des revenus limités, une dépendance à des infrastructures coûteuses et vulnérables aux tensions géopolitiques, une économie fondée sur la spéculation, et une concentration inédite du pouvoir entre les "Sept Magnifiques" (Apple, Google, Amazon, Meta, Tesla, Nvidia, Microsoft) qui pèsent ensemble plus de 12000 milliards. Le sociologue Olivier Alexandre souligne qu'investir dans l'IA nécessite désormais 10 milliards contre 50000 dollars pour le logiciel classique, avec des coûts croissants en cerveaux, capitaux et ressources naturelles. Pour de nombreux experts, la question n'est plus "si" mais "quand" cette bulle technologique éclatera.

Informations

Source

Antoine Jaubard

Publication

02/05/2025

Articles connexes

La Chine déploie l’IA à grande échelle, bien au-delà des labs.

La Chine déploie l’IA à grande échelle, bien au-delà des labs. Comme le révèle Pascaline Bertaux (cofondatrice de 359), des géants comme Ping An Good Doctor (diagnostics à 97 % de précision), JD (entrepôts 100 % autonomes) ou Meituan (livraisons optimisées par algorithmes) transforment déjà la santé, la logistique et l’éducation. « L’IA chinoise ne se code pas, elle agit », résume-t-elle. L’Occident régule, la Chine scale.

Techno-solutionnisme : et si l'humain conservait sa valeur face à l'IA ?

Diego Hidalgo Demeusois, auteur et conférencier, rend un hommage sarcastique à Laurent Alexandre pour avoir nourri sa réflexion sur la technologie à travers son dernier ouvrage, "Ne faites plus d'études !". Il critique la vision techno-solutionniste de ce dernier, qui prédit un futur où l'humain sera dépassé par la machine. "L’humain n’aura bientôt plus vraiment de valeur", résume-t-il, acerbe. Il invite à préserver l'esprit critique et l'autonomie face à l'efficience algorithmique. Une réflexion nécessaire pour cultiver notre humanité dans un monde technologique.

L'IA pense, donc je crois : la mise en garde d'Amélie Raoul

Amélie Raoul, chercheuse en IA, annonce la publication de son article sur "l'IA conversationnelle comme autorité cognitive" à IA-EDU CORIA-TALN 2025. Elle y explore comment des IA comme Grok transforment notre rapport au savoir. "On ne questionne plus, on invoque", souligne-t-elle, mettant en garde contre la délégation de notre esprit critique à des algorithmes perçus comme omniscients. Raoul propose une "pédagogie de l'incertitude algorithmique" pour réapprendre à cultiver notre autonomie cognitive.

ChatGPT et activité cérébrale : une étude du MIT révèle des effets inquiétants

Une étude du MIT Media Lab en 2024 révèle que l'utilisation de ChatGPT pour la rédaction d'essais réduit l'activité cérébrale. Sur 54 étudiants, ceux utilisant ChatGPT ont montré une connectivité neuronale réduite et une mémoire immédiate affaiblie. Sylvain Montmory, consultant en IA, souligne : « Plus l’assistance est forte, plus le cerveau se met en veille ». 83% des utilisateurs de ChatGPT étaient incapables de citer une phrase de leur propre texte. Une réflexion s'impose sur l'usage de l'IA.