Generative101.club

Privacy : 30% des chatbots IA populaires partagent vos données avec des tiers

Une analyse des pratiques de collecte de données des 10 principaux chatbots IA de l'App Store révèle que tous recueillent des informations utilisateurs, avec une moyenne de 11 types de données sur 35 possibles. Google Gemini est le plus gourmand, collectant 22 catégories de données, dont la localisation précise. 40% des applications suivent la position des utilisateurs, et 30% (Copilot, Poe et Jasper) partagent ces données avec des tiers à des fins publicitaires. DeepSeek, qui stocke les données en Chine, a déjà subi une fuite exposant plus d'un million d'historiques de conversations.

Source externe

surfshark.com

/research/chart/ai-chatbots-privacy

Chargement de l'aperçu...

Informations

Source

Surfshark

Publication

18/02/2025

Articles connexes

Reddit sanctionne une étude suisse sur le pouvoir de persuasion des IA

Antoine Crehalet rapporte que Reddit a sanctionné des chercheurs suisses pour avoir mené une étude controversée sur le pouvoir de persuasion des IA sans le consentement des utilisateurs. Ces chercheurs ont publié 1 783 commentaires générés par IA dans le forum r/ChangeMyView, parvenant à faire changer d'avis 137 personnes. Cette expérience non autorisée a déclenché une vive réaction : suppression de comptes, protestation des utilisateurs et débat éthique. Bien que les chercheurs défendent leur démarche comme scientifiquement valide et approuvée par un comité d'éthique, Reddit dénonce une violation de ses règles d'utilisation. Cette affaire met en lumière trois défis majeurs pour la recherche en IA : l'éthique, la monétisation et l'accès aux données de qualité. Crehalet soulève également une question fondamentale pour la recherche publique : comment tester des modèles d'IA en conditions réelles sans disposer des ressources des géants technologiques ?

Les 5 critères pour choisir une IA qui protège vos données en 2025

Un expert en formation IA partage cinq critères essentiels pour évaluer la confidentialité des données dans les principaux modèles d'IA en 2025. ChatGPT (OpenAI) offre un contrôle variable des données mais nécessite une désactivation manuelle de l'utilisation pour l'entraînement. Microsoft Copilot propose une maîtrise intégrale avec aucune exploitation commerciale ni entraînement secondaire des données. Claude (Anthropic) se distingue par une conservation minimale et un contrôle omniprésent, bien que moins puissant que ses concurrents. Gemini (Google) présente deux approches différentes selon les versions - la version gratuite utilise les données pour améliorer l'IA tandis que la version professionnelle garantit l'isolation des données. Enfin, Mistral AI, solution européenne d'origine française, privilégie la souveraineté avec des données hébergées en Europe et une rétention minimale, malgré un écosystème encore naissant.

Perplexity suivra toutes les activités en ligne des utilisateurs pour vendre des publicités hyper personnalisées

Perplexity ambitionne de rivaliser avec Google en développant son propre navigateur. Selon son CEO, Aravind Srinivas, l’objectif est de collecter des données au-delà de son application afin d’affiner le profil des utilisateurs et proposer des publicités plus ciblées. Une stratégie assumée pour mieux monétiser son service : "Nous prévoyons d’utiliser tout le contexte pour construire un meilleur profil utilisateur et peut-être afficher quelques publicités dans notre fil de découverte."

Mistral AI quantifie l'impact écologique de ses LLMs

Mistral AI, pionnier de l'IA ouverte, publie une étude inédite sur l'impact environnemental de ses modèles. En collaboration avec Carbone 4 et l'ADEME, l'entreprise révèle des chiffres clés : 20,4 ktCO₂e et 281 000 m3 d'eau pour l'entraînement de Mistral Large 2. Une avancée majeure pour la transparence dans le secteur. "Nous croyons en une responsabilité collective pour adresser et mitiger les impacts environnementaux de nos innovations."