Generative101.club

Data

6 actualites associees.

Copilot sous surveillance : l'IA, un risque pour vos données sensibles

Copilot, un assistant trop zélé ? Naïm Aouaichia, expert en cybersécurité, révèle les dangers de l'IA avec la faille EchoLeak. "Un simple email, et Copilot livre tes documents confidentiels", explique-t-il. Cette attaque zéro clic exploite la "violation de la portée LLM", où l'IA obéit à des pirates plutôt qu'à l'utilisateur. Microsoft a patché, mais le risque persiste. "Les IA n’ont pas d’intention malveillante. Juste une obéissance aveugle", rappelle Aouaichia. Une mise en garde contre la délégation aveugle à l'IA.

Naïm Aouaichia · 24/06/2025

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

Antoine Crehalet · 18/05/2025

Les 5 critères pour choisir une IA qui protège vos données en 2025

Un expert en formation IA partage cinq critères essentiels pour évaluer la confidentialité des données dans les principaux modèles d'IA en 2025. ChatGPT (OpenAI) offre un contrôle variable des données mais nécessite une désactivation manuelle de l'utilisation pour l'entraînement. Microsoft Copilot propose une maîtrise intégrale avec aucune exploitation commerciale ni entraînement secondaire des données. Claude (Anthropic) se distingue par une conservation minimale et un contrôle omniprésent, bien que moins puissant que ses concurrents. Gemini (Google) présente deux approches différentes selon les versions - la version gratuite utilise les données pour améliorer l'IA tandis que la version professionnelle garantit l'isolation des données. Enfin, Mistral AI, solution européenne d'origine française, privilégie la souveraineté avec des données hébergées en Europe et une rétention minimale, malgré un écosystème encore naissant.

Yvan Demumieux · 05/05/2025

Comment sont entraînés les modèles d'IA : un processus complexe et coûteux

Selon un article du N/N Group, l'entraînement des grands modèles de langage (LLM) se déroule en trois phases principales. L'apprentissage non supervisé expose d'abord le modèle à d'énormes quantités de données internet. Vient ensuite l'apprentissage supervisé avec des exemples soigneusement sélectionnés, puis l'apprentissage par renforcement avec feedback humain (RLHF). Ce processus, extrêmement énergivore, repose également sur le travail de milliers de personnes pour l'évaluation des contenus.

NNGroup · 02/05/2025

Perplexity suivra toutes les activités en ligne des utilisateurs pour vendre des publicités hyper personnalisées

Perplexity ambitionne de rivaliser avec Google en développant son propre navigateur. Selon son CEO, Aravind Srinivas, l’objectif est de collecter des données au-delà de son application afin d’affiner le profil des utilisateurs et proposer des publicités plus ciblées. Une stratégie assumée pour mieux monétiser son service : "Nous prévoyons d’utiliser tout le contexte pour construire un meilleur profil utilisateur et peut-être afficher quelques publicités dans notre fil de découverte."

TechCrunch · 24/04/2025

Privacy : 30% des chatbots IA populaires partagent vos données avec des tiers

Une analyse des pratiques de collecte de données des 10 principaux chatbots IA de l'App Store révèle que tous recueillent des informations utilisateurs, avec une moyenne de 11 types de données sur 35 possibles. Google Gemini est le plus gourmand, collectant 22 catégories de données, dont la localisation précise. 40% des applications suivent la position des utilisateurs, et 30% (Copilot, Poe et Jasper) partagent ces données avec des tiers à des fins publicitaires. DeepSeek, qui stocke les données en Chine, a déjà subi une fuite exposant plus d'un million d'historiques de conversations.

Surfshark · 18/02/2025