IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Microsoft est accusée d'utiliser le contenu de Word et d'Excel en ligne pour former ses différents modèles d'IA avec «Expériences connectées»
Le bouton de désactivation n'est pas si facile à trouver

Le , par Stéphane le calme

34PARTAGES

8  0 
La fonctionnalité « Expériences connectées » de Microsoft Office, activée par défaut, a été critiquée pour avoir potentiellement utilisé le contenu utilisateur pour entraîner l'IA sans l'expliquer clairement. Microsoft nie utiliser les données des clients pour entraîner l'IA, affirmant qu'elle est destinée aux fonctions requises par Internet, comme la co-création de documents. Les critiques mettent en avant le contrat de services de Microsoft, qui accorde à l'entreprise des droits sur le contenu utilisateur. Pour se désinscrire, il faut accéder à des paramètres spécifiques.

Aux utilisateurs d'Office, Microsoft propose des expériences connectées qui analysent votre contenu : « Les expériences qui analysent votre contenu sont des expériences qui utilisent le contenu de votre bureau pour vous fournir des recommandations de conception, des suggestions de révision, des aperçus de données et d'autres fonctions similaires. Par exemple, le Traducteur ou le Concepteur PowerPoint ». Cette fonctionnalité, activée par défaut, a été accusée de récupérer le contenu créé par les utilisateurs pour former ses systèmes d'IA internes.

L'expert Linux @nixcraft sur X a qualifié les « Expériences connectées » de « contraires à l'éthique » car le nom de la fonctionnalité ne dit pas qu'il s'agit uniquement de formation à l'IA. La base de connaissances de Microsoft indique que les expériences connectées sont « conçues pour vous permettre de créer, de communiquer et de collaborer plus efficacement » en analysant votre contenu. Il n'est fait aucune mention de l'utilisation de l'IA ou des données pour les fonctionnalités Copilot ou pour former les modèles d'IA de Microsoft.

Attention : Microsoft Office, comme de nombreuses entreprises ces derniers mois, a sournoisement activé une fonction « opt-out » qui récupère vos documents Word et Excel pour entraîner ses systèmes d'intelligence artificielle internes. Cette fonction est activée par défaut et vous devez décocher manuellement une case pour la désactiver. Si vous êtes un écrivain qui utilise MS Word pour rédiger des contenus propriétaires (articles de blog, romans ou tout autre travail que vous avez l'intention de protéger par des droits d'auteur et/ou de vendre), vous voudrez désactiver cette fonction immédiatement.

Plusieurs médias dans la presse spécialisée ont repris ces allégations, notant que dans le cadre de son fonctionnement normal, l'utilitaire comporte une fonction sournoise dans laquelle elle « recueille automatiquement des données à partir de fichiers Word et Excel pour entraîner les modèles d'IA de l'entreprise ». La collecte de données est apparemment activée par défaut, ce qui signifie que le contenu des utilisateurs peut être utilisé pour entraîner les algorithmes d'IA, à moins qu'il ne soit spécifiquement désactivé. La désactivation elle-même serait « un processus très alambiqué ».

Selon l'un des rapports, ce paramètre par défaut permet à Microsoft d'utiliser toutes sortes de documents, qu'il s'agisse « d'articles, de romans ou d'autres œuvres destinées à être protégées par le droit d'auteur ou à des fins commerciales, sans consentement explicite ».

Microsoft Connected Experiences collecte vos fichiers Word et Excel à des fins d'entraînement à l'IA. Pourquoi ne pas parler de formation à l'IA ? Pourquoi utiliser de tels mots ? Il s'agit d'une pratique contraire à l'éthique suivie par une entreprise pesant des milliards de dollars. Comment cela peut-il être légal ? Je suis bien content de ne pas avoir Windows OS ou MS Office.
[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">Microsoft Connected Experiences means they collect your Word and Excel files for AI training. Why not call it AI training? Why use such words? This is an unethical practice followed by a trillion-dollar corporation. How is this even legal? I am so glad that I don’t have Windows…</p>— nixCraft 🐧 (@nixcraft) <a href="https://twitter.com/nixcraft/status/1860532716904534227?ref_src=twsrc%5Etfw">November 24, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Les conséquences sont énormes pour tous ceux qui utilisent ces outils bien connus pour générer du contenu propriétaire, qu'il s'agisse de documents écrits ou, peut-être, de données financières sensibles. Le problème est que lorsqu'un élément de contenu est utilisé pour former l'une des IA actuelles, comme le Copilot de Microsoft, une sorte d'empreinte est laissée dans l'algorithme. Lorsqu'un utilisateur différent demande des informations à un moment donné dans le futur, il est possible que votre contenu, aussi sensible soit-il, ou les informations propriétaires qu'il contient, fassent « surface » sous une forme ou une autre dans la réponse de l'IA générative.

Microsoft a répondu à ces accusations via le compte officiel @Microsoft365 sur les réseaux sociaux, en niant ces allégations. « Nous n'utilisons pas les données des clients pour former les LLM », a déclaré Microsoft. Selon l'entreprise, « Microsoft Connected Experiences » ne concerne pas les outils d'IA générative ni la formation. « Ce paramètre active uniquement les fonctionnalités nécessitant un accès à Internet, comme la co-création d'un document. »

[TWITTER]<blockquote class="twitter-tweet"><p lang="en" dir="ltr">In the M365 apps, we do not use customer data to train LLMs. This setting only enables features requiring internet access like co-authoring a document. <a href="https://t.co/o9DGn9QnHb">https://t.co/o9DGn9QnHb</a></p>— Microsoft 365 (@Microsoft365) <a href="https://twitter.com/Microsoft365/status/1861160874993463648?ref_src=twsrc%5Etfw">November 25, 2024</a></blockquote> <script async src="https://platform.twitter.com/widgets.js" charset="utf-8"></script> [/TWITTER]

Cependant, comme le souligne Tom's Hardware, Microsoft 365 et Microsoft Connected Experiences sont couverts par le contrat de services de Microsoft, qui confère à l'entreprise tous les droits de propriété intellectuelle sur l'ensemble de votre contenu.

« Dans la mesure nécessaire pour vous fournir les Services et à d'autres, pour vous protéger et protéger les Services, et pour améliorer les produits et services Microsoft, vous accordez à Microsoft une licence de propriété intellectuelle mondiale et libre de droits pour utiliser votre Contenu, par exemple, pour faire des copies, conserver, transmettre, reformater, afficher et distribuer via des outils de communication votre Contenu sur les Services », peut-on lire dans le contrat.

La réaction de Microsoft

Microsoft a démenti les affirmations selon lesquelles il alimente en informations privées de grands modèles de langage. Les données de Microsoft 365 peuvent désormais être automatiquement téléchargées et traitées pour offrir des « expériences connectées » qui, selon Microsoft, « vous permettront de créer, de communiquer et de collaborer plus efficacement ».

Le 21 octobre, Microsoft a publié sur son blog des informations détaillées sur l'expérience connectée, qui semblent avoir évoqué le souvenir de Recall, un outil qui prend des clichés de l'écran des utilisateurs toutes les quelques secondes et qui a été décrit comme un « cauchemar en matière de protection de la vie privée ».

Enfouie au plus profond de la section confidentialité des paramètres d'Office 365 se trouve une option d'expérience connectée qui est activée par défaut pour les clients américains (il faut vérifier pour les autres pays). Dans ce menu, on peut également lire en gras : « Votre vie privée est importante ». Si les utilisateurs ne choisissent pas expressément de désactiver cette fonctionnalité, les données des documents sont récoltées et traitées - ce qui a déclenché la panique à l'idée qu'elles pourraient être utilisées pour entraîner Copilot et d'autres modèles d'IA.

Des allégations concernant le scrapping de données par Microsoft ont circulé sur les médias sociaux au cours du week-end

« Cela ne peut pas être vrai », a écrit Florian Roth, responsable de la recherche chez Nextron Systems. « Alors que les entreprises sont occupées à appliquer des politiques d'IA pour protéger les données confidentielles, Microsoft active discrètement cette fonctionnalité par défaut et l'intitule « Votre vie privée est importante ».

« Il est incroyable que Microsoft ait discrètement activé cette fonction alors que tout le monde se concentrait sur sa fonction d'IA 'Recall' », poursuit-il.

Microsoft reste vague sur ce qu'elle fait des données qu'elle recueille, même s'il ne fait aucun doute qu'elle les recueille.

« Les expériences connectées qui analysent votre contenu sont des expériences qui utilisent votre contenu Office pour vous fournir des recommandations de conception, des suggestions d'édition, des informations sur les données et des fonctionnalités similaires », explique Microsoft.

Avec les applications et services Web, les réseaux sociaux, les moteurs de recherche et bien d'autres choses encore, plusieurs acteurs majeurs du secteur de la technologie et de l'IA ont été accusés à juste titre d'avoir récupéré des données utilisateur pour entraîner l'IA. Le PDG de Microsoft AI, Mustafa Suleyman, a récemment déclaré que tout contenu sur le Web « est un usage équitable » pour la formation, la reproduction et plus encore de l'IA. Tout le reste, y compris les données que les gens choisissent activement de ne pas partager ou de cocher une case « ne pas récupérer », est une « zone grise ». De plus, il appartient aux tribunaux de décider quelles données sont interdites.

Revenons à Microsoft Connected Experiences. L'entreprise a déclaré qu'elle n'utilisait pas vos documents Word pour entraîner des modèles d'IA. Néanmoins, si vous...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Anselme45
Membre extrêmement actif https://www.developpez.com
Le 27/11/2024 à 12:23
Pas besoin de faire de grand discours... Cette news confirme simplement que Microsoft se croit tout permis et considère que les données privées de ses clients sont des données publiques pour elle!

Si vous êtes actuellement derrière votre PC Windows bien au chaud dans votre bureau croyant être dans l'intimité de votre chez soi... Ben oubliez! Microsoft est installé sur votre épaule en train d'espionner tout ce que vous faites...
6  0 
Avatar de popo
Expert confirmé https://www.developpez.com
Le 14/02/2025 à 9:55
Mon expérience de Copilot me pousse à confirmer qu'au final, cela ne fait pas vraiment gagner du temps.

Copilot invente des fait lorsqu'il n'a pas la réponse.

Copilot se répète, il continue tourne en boucle sur les même réponse erronées lorsqu'il n'a pas de réponse.
C'est vraiment pénible, il commence systématiquement par s'excuser avant de redonner la même réponse.
C'est uniquement lorsqu'on lui demande explicitement d'admettre qu'il ne peut pas trouver une réponse qu'il change sa manière de répondre et se met à proposer des liens.

Copilot ne veux pas nous contredire lorsqu'on lui demande de confirmer une information incorrecte.

Copilot prend des racourcis.
Notamment après avoir identifié que plusieurs chiffres étaient identiques sur un longue série.
Lorsque finalement le chiffre change, il ne s'en aperçoit pas toujours et fausse les stats.
Ceci est particulièrement couteux en termes de temps car il au final, on doit passer derrière lui pour tout vérifier.
6  0 
Avatar de TJ1985
Membre chevronné https://www.developpez.com
Le 30/01/2025 à 9:37
J'ai connu l'avant-Microsoft. J'ai souffert sous DOS puis Windows, en gros jusqu'à 7.
Microsoft a habitué les gens à payer pour être bêta-testeur, et surtout à attendre la prochaine version qui sera FORCÉMENT bien plus mieux mieux.
Rétrospectivement, il est évident que si quelques améliorations fonctionnelles ont été bienvenues au début de leurs produits, l'écrasante majorité de ces releases n'a que servi de machine à cash.
En fait le niveau moyen des utilisateurs à baissé en proportion directe de la dissémination de l'informatique, ce qui est normal. Ce qui l'est moins c'est l'impossibilité apparente de former les gens à utiliser pleinement ce qu'ils ont et à toujours espérer que la miraculeuse future version comblera leur déficit de compétences.
Avec l'IA nous entrons dans un cycle où l'on peut effectivement espérer que le logiciel comprendra les infinies subtilités de mise en page indispensables à notre prochaine présentation Power Point, voire rédigé lui-même notre magnifique présentation marketing due pour la semaine passée.
Cela a un coût.
Si vous ne voulez pas d'abonnement Microsoft, pourquoi ne choisissez-vous pas LibreOffice ? Pour la bureautique générale, la petite gestion de petites entreprises, la suite offre l'indispensable, en grande partie le nécessaire et même un bout de superflu.
Et souvenez-vous que nous aussi avons un cerveau, pas seulement Copilot, ChatGPT et consorts, bien qu'ils puissent nous épauler efficacement.
6  1 
Avatar de nicopan
Membre à l'essai https://www.developpez.com
Le 30/01/2025 à 11:13
J'ai essayé Copilot pro en version d'essai avec un à priori positif "Je vais gagnerplein de temps sur les mises en forme sous Word, il me fera les formules complexes adaptées sous Excel..."
Que nenni ! Demandez lui de structures un texte en utilisant les titres n il vous explique comment faire pas à pas. à vous de parcourir tout le texte, repérer les titres , les mettre en forme...
et ça je sais le faire sans l'IA !
Montrez lui un tableau de données nombreuses et il ne vous proposera rien de plus ni de mieux que ce que l'analyseur faisait déjà. Pour peu que vous connaissiez les fonctions avancées d'Excel Copilot vous semblera lent.

Par contre il intervient sans arret pour proposer de réecrire votre texte, le résumer... tout ça pour 22€/mois !

Et maintenant je suis obligé de le prendre ??!!

Je ne peux pas tout passer à Libre Office MS étant si bien implanté en entreprise

Encore une belle vente forcée comme ce cher Bill en avait le secret!

Pour preuve ci-dessous ma prose réécrite gratuitement par ChatGPT (demande d'un ton cynique et convivial avec exemples)

Copilot Pro : la révolution… du vide

Tout excité à l'idée d'essayer Copilot Pro, je me disais :
"Enfin ! Fini le casse-tête des mises en forme sous Word ! Plus besoin de me creuser la tête pour pondre des formules Excel tordues ! Ça va être magique."

Eh bien… spoiler alert : non.
Une "assistance" qui assiste surtout de loin

Vous voulez structurer un texte avec des titres bien propres ?
Copilot vous répond avec une belle notice explicative : "Pour ajouter des titres, sélectionnez votre texte et appliquez un style." Ah bah merci, j’y avais pas pensé…

Vous lui collez un gros tableau Excel, espérant qu’il va vous pondre des analyses intelligentes dignes d’un data scientist ? Il vous ressort… exactement ce que l’analyseur de données Excel faisait déjà depuis des lustres. Vous maîtrisez les fonctions avancées ? Alors là, préparez-vous à être désespérément déçu. Copilot, c’est un peu comme ce collègue qui donne son avis sur tout sans jamais apporter de vraie valeur.
Par contre, pour vous interrompre, il est au taquet !

Ah ça, pour réécrire votre texte, vous proposer des reformulations et vous inciter à tout résumer, il est là, Copilot. Toujours prêt à vous suggérer des modifications que personne ne lui a demandées. Et tout ça pour 22€ par mois. Oui, vingt-deux balles pour un assistant qui fait moins bien que la version gratuite de votre propre cerveau.
Et maintenant, c'est obligatoire ?

Le meilleur dans tout ça ?
Je ne peux même pas m’en passer. Parce que Microsoft est partout en entreprise et que tout balancer pour passer sous LibreOffice, c’est juste impensable.

Bref, encore une vente forcée bien ficelée, dans la grande tradition de ce cher Bill et de ses coups de génie commerciaux. Après Internet Explorer imposé d’office, voici Copilot, le stagiaire envahissant qu’on n’a jamais demandé… mais qu’on va quand même devoir payer.
5  0 
Avatar de Prox_13
Membre éprouvé https://www.developpez.com
Le 14/02/2025 à 10:28
Je confirme également, ayant Copilot et la suite M$360 dans mon entreprise, Copilot est d'une inutilité bluffante.

La dernière tâche que j'ai pu lui demander, c'est de refactoriser un code HTML/CSS afin de passer les règles CSS de chaque classe contenues dans la tag "<style>" pour les rapporter en inline directement à chaque tag HTML.
Donc quelque chose de bête et simple, mais chronophage. Tout ça dans le but de gagner du temps pour une template de mail compatible avec Outlook.

Et bien, sans vous mentir, Coprolot m'a ressorti EXACTEMENT le même code. Trois fois d'affilée, et lorsque je lui ai demandé directement "Peux-tu m'expliquer pourquoi ces deux fichiers semblent identiques" pour avoir comme réponse un "Je comprends votre frustration, il semble qu'ils contiennent le même contenu", alors que mes prompts étaient surprenamment polies... (Travail oblige de toutes manières)

C'est vraiment extrêmement... nul ? Inutile ? On dirait une escroquerie, mais je suppose qu'ils se sont autorisés a être des escrocs dans leur CLUF
5  0 
Avatar de blbird
Membre chevronné https://www.developpez.com
Le 13/02/2025 à 22:02
Je confirme, j'ai fait un tests sur plusieurs mois l'été 2024 sur Microsoft Copilot pour 15 utilisateurs, avec formations, le résultat c'était avéré catastrophique. 14 sur 15 trouvaient que c'était une perte de temps, même avec l'avantage des intégrations dans les outils O365, et 1 seul a trouvé qu'il pouvait gagner quelques minutes par jour sur une utilisation très simple. Tous sont repartis sur Chatgpt ou Claude, 10x plus efficaces.
4  0 
Avatar de totozor
Expert confirmé https://www.developpez.com
Le 28/01/2025 à 7:29
Citation Envoyé par Mathis Lucas Voir le message
Quel est votre avis sur le sujet ?
Je comprends mieux pourquoi on nous encourage à nous en servir dans ma boite, elle a payer un pont ce service.
Mais les résultats sont au mieux moyens.
Seule la retranscription des réunions est à peu près acceptables (on comprends facilement les erreurs qu'elle fait)
4  1 
Avatar de Coupheure
Candidat au Club https://www.developpez.com
Le 30/01/2025 à 7:44
D'après mes tests Copilot n'est pas capable de transformer un Word en présentation Powerpoint ... trop déçu
3  0 
Avatar de floyer
Membre éclairé https://www.developpez.com
Le 31/01/2025 à 1:05
On me fera difficilement passer d’Excel à LibreOffice… la fonction « insérer tableau » d’Excel est renommée « définir une plage » sous LibreOffice mais est moins ergonomique (pas de feedback visuel, ni de possibilité d’agrandir la plage facilement). Mais surtout PowerQuery… c’est la possibilité de créer à la souris des scripts de manipulation de tableaux très puissants (bien plus que les tableaux croisés dynamique).
2  0 
Avatar de i5evangelist
Membre éclairé https://www.developpez.com
Le 31/01/2025 à 8:55
Et souvenez-vous que nous aussi avons un cerveau, pas seulement Copilot, ChatGPT et consorts, bien qu'ils puissent nous épauler efficacement.
Bravo TJ1985, entretenir son cerveau est vital ^^ (My Brain is my copilot ! )
2  0