Archives de catégorie : Justice

New York encadre la tarification algorithmique

New York devient le premier État américain à réglementer l’usage des algorithmes dans la fixation des prix.

Depuis lundi, la loi new-yorkaise sur la tarification algorithmique impose aux entreprises de déclarer si elles exploitent les données personnelles des consommateurs pour ajuster leurs tarifs. Cette obligation marque une première nationale, la loi californienne équivalente n’étant pas encore entrée en vigueur.

Des prix calculés à partir des données personnelles

La tarification algorithmique repose sur des modèles capables de modifier automatiquement les prix en fonction de variables comme le revenu, l’historique d’achats ou la géolocalisation. Cette pratique, utilisée dans le commerce en ligne ou les services de transport, permet d’optimiser les marges, mais soulève de fortes inquiétudes éthiques.

Selon les défenseurs de la vie privée, cette « tarification de la surveillance » risque d’amplifier les discriminations économiques, en facturant davantage certaines catégories de consommateurs jugées plus solvables. La Federal Trade Commission (FTC) a d’ailleurs publié en janvier un rapport analysant ces risques et les dérives possibles de l’IA dans la fixation des prix.

La procureure générale durcit le ton

La procureure générale Letitia James a publié une alerte aux consommateurs, appelant les New-Yorkais à signaler tout cas d’utilisation non divulguée de données personnelles dans la tarification.
Elle a rappelé dans un communiqué : « Les New-Yorkais méritent de savoir si leurs informations personnelles servent à fixer les prix qu’ils paient. Je n’hésiterai pas à agir contre ceux qui tentent d’induire les consommateurs en erreur. »

Le bureau de la procureure entend renforcer la transparence et la responsabilité des entreprises, notamment celles qui emploient des outils d’intelligence artificielle ou d’apprentissage automatique pour personnaliser les prix.

Vers une régulation nationale de la tarification automatisée ?

L’entrée en vigueur de la loi new-yorkaise pourrait faire école. En Californie, le texte équivalent, encore en attente d’application, devrait s’inspirer du modèle new-yorkais pour encadrer la collecte, le traitement et l’usage des données de consommation dans la tarification.

Cette régulation s’inscrit dans un mouvement plus large aux États-Unis visant à limiter les effets opaques de l’IA dans la sphère économique. La question centrale demeure : comment concilier innovation algorithmique et respect des droits des consommateurs ?

L’ère des algorithmes régissant les prix touche à sa première grande régulation. Entre transparence et surveillance, New York teste le futur du commerce automatisé. La loi suffira-t-elle à freiner les dérives de l’intelligence économique ?

La faillite de Near relance le débat sur la revente des données de géolocalisation

La société Near, autrefois valorisée à un milliard de dollars, a fait faillite. Son immense base de données de géolocalisation suscite aujourd’hui de vives inquiétudes politiques et juridiques.

Near, courtier en données basé en Inde, s’était imposé en 2021 comme un acteur majeur de la collecte de données de localisation. Elle affirmait alors détenir des informations sur « 1,6 milliard de personnes dans 44 pays ». Introduite en bourse en 2023 via une SPAC, l’entreprise a pourtant déposé le bilan sept mois plus tard. Sa liquidation pose une question cruciale : que deviendront les données personnelles qu’elle détient, notamment celles liées à des lieux sensibles aux États-Unis ?

Des données de géolocalisation au cœur d’une tempête politique

La faillite de Near a rapidement attiré l’attention du Congrès américain. Le sénateur Ron Wyden a demandé à la Federal Trade Commission (FTC) d’empêcher toute revente des bases de données de géolocalisation, en particulier celles collectées autour des cliniques d’avortement. Son bureau avait ouvert une enquête après un article du Wall Street Journal de mai 2023 révélant que Near avait vendu des licences de données à l’organisation anti-avortement Veritas Society. Cette dernière aurait ciblé des publicités vers les visiteuses de 600 cliniques Planned Parenthood dans 48 États.

L’enquête a également montré que Near fournissait des données de géolocalisation au département de la Défense et à des services de renseignement américains. Dans sa lettre à la FTC, Wyden a dénoncé des pratiques « scandaleuses » et exigé la destruction ou l’anonymisation des données américaines sensibles.

Une ordonnance de faillite sous haute surveillance

Les demandes de Wyden ont été entendues. Un document judiciaire publié cette semaine impose de strictes restrictions sur la gestion et la revente des données collectées par Near. Toute entreprise reprenant ces actifs devra instaurer un « programme de gestion des données de géolocalisation sensibles », incluant une surveillance continue, des politiques de conformité et une liste de lieux interdits.

Parmi ces lieux figurent les établissements de santé reproductive, les cabinets médicaux, les églises, les prisons, les centres d’hébergement et les établissements psychiatriques. L’ordonnance interdit toute collecte, utilisation ou transfert de données sans le consentement explicite des personnes concernées.
Dans un communiqué transmis à The Markup, Ron Wyden a salué la décision de la FTC, estimant qu’elle « empêchera l’utilisation abusive du stock de données de géolocalisation des Américains ».

Les pratiques du marché de la donnée mises à nu

Les documents de faillite de Near offrent un rare aperçu du fonctionnement du marché des données de géolocalisation. Ils révèlent des accords de monétisation conclus avec plusieurs courtiers et annonceurs : X-Mode, Tamoco, Irys, Digital Origin, ainsi que des institutions universitaires et des administrations locales.

Un contrat de 2023 liait Near à Digital Origin (maison mère de X-Mode) pour 122 706 $ (112 000 euros). La FTC a depuis interdit à X-Mode de vendre des données de géolocalisation sensibles après un règlement amiable. D’autres contrats montrent que Tamoco et Irys, identifiés parmi 47 acteurs majeurs de ce marché évalué à plusieurs milliards de dollars, avaient conclu des partenariats similaires avec Near.

Selon la politique de confidentialité de l’entreprise, les données pouvaient être « transférées aux acheteurs potentiels » en cas de vente. Une clause devenue critique maintenant que Near cherche un repreneur.

Les rançons échouent : 41 % des paiements de ransomware inutiles

Payer ne suffit plus : selon Hiscox, 41 % des entreprises victimes de ransomware restent paralysées malgré le versement d’une rançon et la réception d’une clé de déchiffrement.

Le rapport « Cyber Readiness Report 2025 » de l’assureur Hiscox révèle une réalité préoccupante : payer une rançon ne garantit pas la récupération des données. Sur 5 750 organisations interrogées dans sept pays, 27 % ont subi une attaque par ransomware, et 41 % des payeurs n’ont pas pu restaurer leurs systèmes malgré une clé reçue. Pire, 31 % des victimes ayant payé ont subi une nouvelle extorsion et 27 % d’entre elles ont été attaquées à nouveau. Les objets connectés (IoT) sont identifiés comme premier vecteur d’intrusion. En dépit de ce constat, 83 % des entreprises déclarent une meilleure cyber-résilience sur l’année écoulée.

Rançons inefficaces et attaques répétées

Le rapport montre que céder aux exigences des cybercriminels ne garantit pas le retour à la normale. Parmi les entreprises touchées, 60 % disent avoir récupéré une partie ou la totalité de leurs données, mais 41 % ont dû reconstruire leurs systèmes. Hiscox observe également une aggravation du phénomène : près d’un tiers des victimes ayant payé ont subi une nouvelle demande d’argent, souvent par les mêmes acteurs, et plus d’un quart ont connu une autre attaque dans les mois suivants. Le rapport conclut que « le paiement d’une rançon ne résout pas toujours le problème », rappelant la fragilité des stratégies de négociation directe avec les groupes de ransomware.

IoT, chaîne d’approvisionnement et cloud en première ligne

Les vulnérabilités des objets connectés constituent le principal point d’entrée des cyberattaques (33 %), devant celles liées à la chaîne d’approvisionnement (28 %) et aux serveurs hébergés dans le cloud (27 %). Les outils d’intelligence artificielle, utilisés sans protection suffisante, deviennent également un vecteur d’attaque initial pour 15 % des entreprises. Cette cartographie des risques confirme que l’interconnexion des systèmes multiplie les surfaces d’exposition. Les cybercriminels exploitent les failles de configuration ou de mise à jour pour obtenir un premier accès, avant de déployer des charges malveillantes chiffrant les données critiques.

Multiplication des incidents selon la taille de l’entreprise

Parmi les 5 750 organisations interrogées, 59 % ont subi au moins une cyberattaque au cours des douze derniers mois. Les grandes entreprises et celles générant plus d’un million de dollars (921 000 euros) de chiffre d’affaires sont les plus ciblées, avec une moyenne de six attaques par an, contre quatre pour les plus petites structures. Les sociétés de 50 à 249 employés enregistrent en moyenne sept incidents, contre cinq pour les structures comptant de 11 à 49 salariés. Le secteur non lucratif reste le plus exposé, avec huit attaques en moyenne par organisation, tandis que les entreprises des secteurs chimique, immobilier et médiatique signalent trois incidents par an.

Vers plus de transparence dans les paiements

Le rapport cite la nouvelle loi australienne imposant la divulgation des montants versés aux cybercriminels. Cette obligation recueille un soutien majoritaire : 71 % des répondants y sont favorables. Toutefois, 53 % estiment que les entreprises privées devraient pouvoir conserver la confidentialité de ces paiements. Ce débat illustre la tension entre transparence publique et gestion de crise opérationnelle. En dépit de la recrudescence des attaques, 83 % des organisations déclarent avoir renforcé leur posture de cybersécurité, notamment via la formation du personnel, la segmentation des réseaux et la mise en place de sauvegardes hors ligne.

PowerSchool : un pirate de 19 ans condamné à quatre ans de prison

Un jeune Américain a été condamné à quatre ans de prison pour avoir piraté PowerSchool et tenté d’extorquer plusieurs millions de dollars à l’éditeur de logiciels éducatifs.

L’affaire PowerSchool marque l’une des plus vastes fuites de données du secteur éducatif américain. Un étudiant de 19 ans, originaire du Massachusetts, a compromis les informations personnelles de plus de 70 millions d’utilisateurs avant de réclamer une rançon de 2,9 millions $. Le tribunal fédéral l’a condamné à quatre ans d’emprisonnement, assortis d’une amende de 25 000 $ et d’une restitution de près de 14 millions $ (13 millions d’euros €). Ce piratage, d’une ampleur inédite, relance la question de la sécurité des données scolaires et des défaillances de la chaîne numérique éducative.

Une attaque d’ampleur contre l’écosystème éducatif

Matthew Lane, 19 ans, a reconnu avoir infiltré les serveurs de PowerSchool en décembre 2024 à l’aide d’identifiants volés auprès d’un prestataire de maintenance. Les enquêteurs fédéraux ont établi qu’il avait exfiltré des bases de données contenant des informations nominatives, des numéros de sécurité sociale et des dossiers médicaux concernant plus de 60 millions d’élèves et 9 millions d’enseignants. Ces données concernaient notamment le statut d’éducation spécialisée et certaines conditions médicales, rendant la fuite particulièrement sensible.

Lane a ensuite exigé le paiement de 2,9 millions $ (2,7 millions €) en cryptomonnaie pour ne pas divulguer les informations. L’entreprise a refusé de céder au chantage, mais a dû engager des frais considérables pour sécuriser ses systèmes et offrir des services de surveillance d’identité aux victimes. Selon les documents judiciaires, le coût total du piratage s’élève à plus de 14 millions $ (13 Millions €).

L’affaire a été rendue publique en janvier 2025, après la découverte de la fuite sur un forum fréquenté par des groupes de rançongiciel. Le FBI a rapidement identifié le pirate grâce aux traces laissées lors des transactions et à l’exploitation d’un portefeuille de cryptomonnaie lié à d’autres intrusions plus anciennes. Les procureurs ont décrit un individu « motivé par l’appât du gain » et disposant d’un « long historique d’activités informatiques illégales ».

Une sanction exemplaire mais mesurée

Le juge fédéral Margaret Guzman a prononcé une peine de quatre ans de prison et trois ans de surveillance d’aprés incarcération. Les procureurs demandaient sept ans d’emprisonnement, estimant que l’ampleur du préjudice justifiait une sanction plus sévère. Le tribunal a retenu la coopération de Lane et son absence de casier judiciaire comme circonstances atténuantes.

La condamnation comprend également une amende de 25 000 $ et une restitution de 14 millions $ (≈13 M €) correspondant au coût des réparations et aux compensations versées par PowerSchool. Ce montant, jugé symbolique par les victimes, illustre néanmoins la prise de conscience judiciaire face à la gravité croissante des attaques contre les infrastructures éducatives.

Du point de vue du renseignement, l’affaire met en lumière la vulnérabilité des systèmes d’information du secteur public et parapublic. Les établissements scolaires dépendent d’un écosystème de fournisseurs souvent sous-dimensionnés en matière de cybersécurité. L’exploitation d’un simple compte de prestataire a suffi à compromettre des millions de profils sensibles.

Un signal d’alerte pour la cybersécurité éducative

Le piratage PowerSchool agit comme un électrochoc pour le monde de l’ed-tech. Il démontre qu’un acteur isolé peut, avec des outils accessibles sur le web, compromettre un système national. Cet incident pourrait entraîner un renforcement des obligations de sécurité imposées aux éditeurs de logiciels éducatifs, notamment en matière de chiffrement, de segmentation réseau et de gestion des accès à privilèges.

Les données volées, très détaillées, possèdent une valeur durable sur les marchés clandestins. Contrairement à des identifiants bancaires, elles ne peuvent être facilement révoquées. Leur utilisation future à des fins de fraude ou de chantage individuel reste donc une menace. Certains États envisagent désormais de réduire la durée de conservation des dossiers scolaires et d’imposer des audits réguliers aux opérateurs privés.

Sur le plan stratégique, les services américains de renseignement économique s’inquiètent d’une possible revente de ces données à des acteurs étrangers intéressés par les profils médicaux et comportementaux d’élèves. Le lien entre espionnage de données civiles et collecte de renseignement de masse s’affirme chaque année davantage, notamment dans le champ éducatif où les plateformes concentrent une masse d’informations rarement protégée selon les standards militaires ou financiers.

Une faille révélatrice d’un écosystème fragile

Le cas PowerSchool rappelle que la chaîne d’approvisionnement logicielle demeure un point de vulnérabilité critique. Les fournisseurs intermédiaires, souvent peu surveillés, deviennent les cibles privilégiées des cybercriminels. L’incident a mis en évidence l’absence de supervision centralisée de la sécurité numérique dans l’enseignement primaire et secondaire aux États-Unis, où chaque district scolaire choisit ses propres prestataires.

Pour PowerSchool, coté en bourse et présent dans plus de 90 pays, la crise a également un coût réputationnel majeur. Le groupe a dû notifier l’ensemble de ses clients, renforcer ses protocoles d’accès et collaborer avec le FBI et la CISA (Cybersecurity and Infrastructure Security Agency). La société a déclaré avoir « pris toutes les mesures nécessaires pour prévenir toute récidive », mais l’impact sur la confiance des établissements reste considérable.

Les experts estiment que cette attaque pourrait accélérer la normalisation des pratiques de cybersécurité dans l’éducation, à l’image de ce qui existe déjà dans la santé ou la finance. Toutefois, le cas Lane démontre qu’une faille humaine — ici l’exploitation d’un compte de prestataire — peut suffire à anéantir des systèmes théoriquement conformes aux standards de sécurité.

L’affaire PowerSchool illustre une réalité inquiétante : le secteur éducatif, souvent sous-protégé, est devenu une cible stratégique pour les cybercriminels. Entre rançon, fuite de données et espionnage potentiel, les institutions scolaires devront désormais aborder la cybersécurité comme une composante essentielle de leur mission publique. Jusqu’où faudra-t-il aller pour que les données des élèves soient considérées avec la même rigueur que celles des contribuables ou des patients ?

Sources
– Reuters, Massachusetts man behind PowerSchool hacking gets 4 years in prison, 14 octobre 2025 : https://www.reuters.com/legal/government/massachusetts-man-behind-powerschool-hacking-gets-4-years-prison-2025-10-14/

Caméras cachées : la CNIL inflige 100 000 € à La Samaritaine

La CNIL sanctionne La Samaritaine pour usage de caméras dissimulées dans ses réserves. Une affaire révélant les dérives technologiques en matière de surveillance interne et de protection des données.

 

Rejoignez ZATAZ sur les réseaux :

Aucun spam – Désinscription en un clic – Vie privée respectée

La Commission nationale de l’informatique et des libertés (CNIL) a infligé une amende de 100 000 € à La Samaritaine, grand magasin parisien, pour avoir utilisé des caméras cachées dans ses zones de stockage. L’autorité a estimé que ces dispositifs, dissimulés dans de faux détecteurs de fumée et capables d’enregistrer le son, violaient les règles du Règlement général sur la protection des données (RGPD). Les salariés n’avaient pas été informés de la surveillance, et aucune analyse d’impact n’avait été réalisée. Cette affaire illustre les tensions croissantes entre sécurité interne et respect des droits fondamentaux à l’ère numérique.

Une surveillance dissimulée dans les réserves du magasin

Le dossier commence par une découverte en apparence anodine. Dans les zones de stockage de La Samaritaine, rénovée et rouverte au public en 2021, des dispositifs de surveillance avaient été installés. Contrairement aux caméras classiques visibles à l’entrée ou dans les espaces de vente, celles-ci ne se repéraient pas. Elles étaient intégrées dans de faux boîtiers de détecteurs de fumée, positionnés au plafond. Leur apparence inoffensive masquait une capacité d’enregistrement vidéo et sonore.

Selon l’enquête de la CNIL, ces caméras avaient pour objectif de surveiller les flux de marchandises et les activités du personnel dans les réserves. L’enseigne n’avait toutefois pas pris les mesures nécessaires pour garantir la transparence de cette surveillance. Les salariés, directement concernés, n’avaient reçu aucune information préalable. Les visiteurs ou prestataires extérieurs qui pouvaient également pénétrer dans ces espaces n’étaient pas davantage avertis.

La CNIL a jugé que ce dispositif de surveillance constituait une atteinte au droit fondamental à la protection des données personnelles. Le caractère dissimulé des caméras accentuait la gravité de l’infraction.

 

⚠️ Êtes-vous une proie facile ?⚠️  ️

Scanner de menaces ZATAZ -> identifiez vos expositions avant l’attaque✅ Scanner mes risques
Confidentiel • Instantané • Sécurisé • 100 % Made in France

Des manquements multiples au RGPD

L’autorité de contrôle a identifié plusieurs manquements au Règlement général sur la protection des données. Le premier concerne l’absence de transparence. Toute installation de vidéosurveillance doit être signalée clairement aux personnes filmées, ce qui n’était pas le cas. Le deuxième point tient à l’absence d’analyse d’impact, pourtant obligatoire pour des dispositifs susceptibles de générer un risque élevé pour les droits et libertés des personnes. Une telle analyse aurait permis de mesurer les risques et de définir des mesures correctrices.

Le troisième manquement porte sur la proportionnalité. La CNIL estime que le recours à des caméras cachées ne peut être justifié que dans des cas exceptionnels, par exemple lors d’enquêtes ciblées et temporaires. Ici, le dispositif était permanent et concernait l’ensemble du personnel circulant dans les zones de réserve. Enfin, l’autorité a relevé un défaut de base légale, puisque le recours à ce type de surveillance ne pouvait être légitimé par une simple nécessité interne de sécurité ou de gestion.

Ces manquements cumulés ont conduit à une sanction pécuniaire significative. L’amende de 100 000 € reflète la volonté de la CNIL de rappeler aux entreprises que la vidéosurveillance, surtout lorsqu’elle est cachée, ne peut s’affranchir des règles européennes.

Un signal fort pour le monde du travail et la cybersurveillance

Au-delà de la sanction financière, l’affaire La Samaritaine envoie un signal clair. Dans le monde du travail, la surveillance technologique ne cesse de s’étendre. Capteurs, logiciels de suivi d’activité, géolocalisation : les dispositifs sont nombreux. L’installation de caméras cachées illustre une tendance inquiétante, où la frontière entre sécurité et intrusion se brouille.

La CNIL rappelle que la confiance au sein de l’entreprise repose sur la transparence. Le fait de cacher un dispositif de surveillance détruit ce principe et fragilise la relation employeur-salarié. Dans un contexte plus large, cette affaire résonne avec les enjeux de cybersurveillance. Les mêmes logiques de disproportion et d’opacité se retrouvent dans certains usages des technologies de suivi numérique.

En sanctionnant La Samaritaine, la CNIL veut montrer que les entreprises, même prestigieuses, doivent respecter les règles. La mise en conformité ne relève pas d’un simple formalisme administratif. Elle constitue une obligation légale et un garde-fou essentiel contre les abus.

Cette sanction pose une question clé : comment concilier les besoins de sécurité interne avec le respect strict des règles de transparence et de proportionnalité en matière de surveillance numérique ?

Rejoignez ZATAZ sur les réseaux :

Aucun spam – Désinscription en un clic – Vie privée respectée

Meta accusée de graves manquements en cybersécurité

Un ex-employé de WhatsApp accuse Meta d’avoir ignoré des failles critiques et d’avoir réprimé ses alertes. L’affaire implique Mark Zuckerberg et relance le débat sur la transparence des géants du numérique.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Attaullah Baig, ancien ingénieur de WhatsApp, affirme que des centaines de salariés pouvaient accéder sans restriction aux données sensibles des utilisateurs. Il accuse Meta d’avoir violé un accord conclu avec la FTC en 2020, de ne pas avoir signalé ces risques à la SEC et de l’avoir licencié après ses alertes. L’entreprise conteste, évoquant un collaborateur de faible niveau et mal noté. Mais le procès, qui met en cause directement Zuckerberg, soulève une question centrale : la gouvernance interne de Meta est-elle compatible avec la sécurité des données de milliards d’usagers ?

Des accusations directes contre la gouvernance de Meta

L’affaire débute par une série de découvertes que Baig dit avoir faites au sein de WhatsApp. Selon lui, des centaines d’ingénieurs disposaient d’un accès illimité aux informations personnelles des utilisateurs. Cet accès, décrit comme injustifié et incontrôlé, contreviendrait frontalement à l’engagement pris par Meta en 2020 devant la Federal Trade Commission (FTC). L’accord, conclu après plusieurs scandales liés à la vie privée, imposait un contrôle strict des accès internes et une responsabilisation accrue des dirigeants.

Baig soutient que non seulement ces obligations n’ont pas été respectées, mais que l’entreprise aurait sciemment fermé les yeux sur les vols de comptes. Les signalements de compromission d’identités numériques, fréquents sur WhatsApp, auraient été minimisés dans la communication interne et externe. L’ingénieur affirme aussi que Meta a manqué à ses devoirs de transparence envers la Securities and Exchange Commission (SEC) en omettant de déclarer ces risques dans les documents officiels remis aux investisseurs. Cette omission pourrait être assimilée à une fraude boursière.

Selon sa plainte, Baig a personnellement alerté Mark Zuckerberg, directeur général de Meta, et Will Cathcart, patron de WhatsApp. Plutôt que de traiter les failles, il décrit une réaction hostile : dénigrement de ses performances, microgestion intrusive et démantèlement des fonctionnalités de sécurité conçues par son équipe. Estimant avoir été victime de représailles, il a ensuite saisi la SEC. Peu après, il a été licencié.

Aujourd’hui, l’ancien ingénieur réclame sa réintégration, des compensations financières et un procès devant jury. Pour Meta, l’affaire ne repose sur rien : les représentants du groupe affirment que Baig n’était pas un responsable sécurité mais un simple manager de développement logiciel de niveau junior, dont les résultats jugés médiocres justifiaient le licenciement.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces qui vous visent avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Entre obligations réglementaires et enjeux stratégiques

L’aspect juridique de l’affaire repose sur deux points clés : le respect de l’accord FTC de 2020 et la communication à la SEC. L’accord imposait à Meta un dispositif de contrôle interne renforcé, notamment sur la gestion des accès aux données personnelles. Tout manquement à ces obligations pourrait exposer l’entreprise à de lourdes sanctions.

La SEC, de son côté, sanctionne toute dissimulation d’informations pouvant influencer les investisseurs. Si les accusations de Baig sont confirmées, Meta pourrait être poursuivie pour avoir présenté une image trompeuse de sa maîtrise des risques liés à la sécurité et à la confidentialité.

Au-delà du droit, le dossier révèle la tension permanente entre impératifs économiques et exigences de cybersécurité. WhatsApp, propriété de Meta depuis 2014, compte plus de deux milliards d’utilisateurs. Toute faille ou compromission massive aurait un impact mondial. L’accusation d’accès incontrôlé à grande échelle questionne directement la capacité du groupe à protéger les données sensibles, alors même que son modèle repose sur la confiance des utilisateurs et des annonceurs.

La défense de Meta s’appuie sur des éléments factuels : le département du Travail américain a déjà rejeté une plainte antérieure de Baig, estimant que son licenciement ne relevait pas de représailles. Pour l’entreprise, il s’agit donc d’un contentieux personnel monté en épingle. Mais le fait que l’affaire cite explicitement Mark Zuckerberg met sous tension la communication du groupe.

Cybersécurité et renseignement : une faille stratégique

L’accusation centrale, celle d’un accès illimité aux données utilisateurs par un trop grand nombre d’ingénieurs, mérite une lecture stratégique. Dans toute organisation numérique, la gestion des accès est l’un des piliers de la cybersécurité. Multiplier les accès sans justification augmente mécaniquement les risques d’abus, d’espionnage industriel ou d’ingérences étatiques.

Pour une plateforme mondiale comme WhatsApp, utilisée aussi bien par des particuliers que par des entreprises, des ONG ou des responsables politiques, la question prend une dimension de renseignement. L’hypothèse qu’un nombre élevé d’employés ait pu explorer les données personnelles ouvre la possibilité d’une exploitation malveillante interne ou externe.

Les services de renseignement, qui suivent de près les pratiques des grandes plateformes, s’intéressent à ce type de faille. Une infrastructure comptant des milliards d’utilisateurs représente une cible idéale pour l’espionnage, qu’il soit mené par des acteurs étatiques ou criminels. Les accusations de Baig, si elles se vérifient, signifieraient que Meta aurait facilité malgré elle la tâche de tout acteur souhaitant infiltrer ses systèmes.

La portée de l’affaire dépasse donc largement le cas d’un licenciement contesté. Elle interroge sur la gouvernance de la donnée au sein d’une entreprise devenue un nœud stratégique de communication mondiale.

Une crise de confiance pour Meta ?

Le groupe de Menlo Park se trouve à nouveau confronté à une crise de confiance. Depuis Cambridge Analytica, Meta traîne une réputation fragile en matière de protection des données. Chaque révélation ou accusation relance les doutes sur sa capacité à garantir la confidentialité.

Pour les régulateurs, cette affaire pourrait devenir un test. Si le procès confirme les accusations, la FTC et la SEC seraient contraintes de durcir encore leur contrôle. Si, au contraire, les arguments de Meta l’emportent, le cas illustrerait la difficulté pour un lanceur d’alerte interne de se faire entendre dans un groupe tentaculaire.

Dans les deux scénarios, l’impact est réel : la question de la sécurité des données chez Meta reste ouverte. La mention directe de Zuckerberg dans le dossier montre que la responsabilité personnelle des dirigeants est désormais au cœur des débats.

La cybersécurité, longtemps traitée comme une fonction technique, devient ici un enjeu de gouvernance et de confiance publique. Dans un monde où la donnée est ressource stratégique, chaque faille non traitée peut se transformer en crise globale.

Au-delà du conflit personnel entre un ex-ingénieur et son employeur, l’affaire Baig révèle les tensions profondes qui traversent les géants du numérique : comment concilier croissance, gouvernance et sécurité dans un environnement où la donnée est devenue cible de convoitises multiples ? La justice américaine devra déterminer si Meta a failli à ses obligations. Mais la question qui reste est plus large : si même un acteur central comme WhatsApp ne parvient pas à maîtriser ses accès internes, quels garde-fous restent aux utilisateurs et aux États face aux risques d’ingérence ?

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

Sources

Le Congrès américain veut prolonger la loi clé sur le partage cyber

Une commission du Congrès a validé la prolongation de la loi de 2015 sur le partage d’informations cyber, outil central pour sécuriser les échanges entre entreprises privées et gouvernement.

La loi américaine sur le partage d’informations cyber, adoptée en 2015 après le piratage massif de l’Office of Personnel Management, arrive à expiration le 30 septembre. Une commission de la Chambre a approuvé son renouvellement via le WIMWIG Act, qui prolongerait le dispositif de dix ans. Le texte protège les entreprises de poursuites lorsqu’elles transmettent des renseignements sur des menaces informatiques aux autorités fédérales. S’il est jugé crucial pour la coopération public/privé, le processus de révision suscite des critiques sur la transparence et alimente un débat politique autour du rôle de l’agence CISA, accusée par certains élus républicains de censure en matière de désinformation.

Un cadre légal en sursis

Adoptée en 2015, la loi Cybersecurity and Information Sharing Act (CISA) autorise les acteurs privés à transmettre des renseignements sur des cybermenaces aux autorités fédérales sans crainte de poursuites. Elle devait expirer le 30 septembre. La commission de la Sécurité intérieure de la Chambre a validé mercredi une extension baptisée WIMWIG Act, pour Widespread Information Management for the Welfare of Infrastructure and Government. Cette reconduction de dix ans doit désormais être examinée en séance plénière.

L’adoption initiale de la loi avait marqué un tournant après l’onde de choc provoquée par la fuite massive des données de l’Office of Personnel Management en 2015, qui avait exposé les informations de plus de 21 millions de fonctionnaires. L’affaire avait levé les dernières résistances nées des révélations d’Edward Snowden en 2013 sur les abus de surveillance. Depuis, la loi a permis d’ancrer une coopération jugée essentielle entre infrastructures critiques et gouvernement fédéral.

Des amendements techniques contestés

Le renouvellement du texte a été examiné sans opposition frontale sur le fond. Mais le démocrate Bennie Thompson, élu du Mississippi et chef de file minoritaire, a dénoncé une procédure expéditive. Selon lui, le président de la commission Andrew Garbarino, républicain de New York, a « écourté inutilement » les discussions, la version publique n’ayant été dévoilée que deux jours avant l’examen.

Plusieurs amendements techniques ont été intégrés sans provoquer de débat majeur. Les critiques se sont concentrées sur la méthode, révélant les tensions partisanes autour du dossier, plus que sur la substance du dispositif de partage d’informations lui-même.

Le sujet le plus sensible reste le rôle de l’agence Cybersecurity and Infrastructure Security Agency (CISA). Certains élus républicains redoutent que cette structure fédérale, au cœur du dispositif, ne serve d’outil pour limiter la liberté d’expression. Ces craintes, relayées par le sénateur Rand Paul, président républicain de la commission sénatoriale de la Sécurité intérieure, pourraient peser lors de l’examen au Sénat. Paul, défenseur intransigeant du premier amendement, a annoncé vouloir insérer des garanties interdisant toute action assimilée à de la censure.

Les critiques s’appuient sur les campagnes menées par la CISA autour des élections de 2020, lorsqu’elle avait travaillé avec les plateformes en ligne pour contrer la désinformation. Pour ses détracteurs, ces actions auraient exercé une pression inconstitutionnelle sur des entreprises privées, aboutissant à la suppression de contenus jugés favorables aux conservateurs. Garbarino a confirmé avoir échangé avec Paul sur un texte en préparation visant directement l’agence, sans préciser s’il s’agissait d’un amendement au WIMWIG Act ou d’une proposition distincte.

Le renouvellement du cadre de partage d’informations cyber reste perçu comme indispensable pour protéger les infrastructures critiques. Mais les débats sur le rôle de la CISA et la crainte d’une dérive vers la censure pourraient-ils freiner l’adoption finale d’un dispositif pourtant jugé vital par les acteurs du renseignement et de la cybersécurité ?

Disney sanctionné pour collecte illégale de données d’enfants

Disney a accepté de verser 10 M$ (9,3 M€) à la FTC pour avoir violé la loi COPPA en mal étiquetant des vidéos YouTube destinées aux enfants, permettant la collecte de données personnelles sans consentement parental.

Le règlement impose à Disney de revoir sa gestion de contenus en ligne. L’affaire révèle un problème plus large : les limites du système actuel de protection de la vie privée des mineurs, alors que la publicité ciblée et l’IA façonnent déjà l’écosystème numérique des plus jeunes.

Disney face aux accusations de la FTC

La FTC reproche à Disney d’avoir utilisé des paramètres par défaut au niveau des chaînes plutôt qu’une classification vidéo par vidéo. Résultat : des contenus pour enfants issus de franchises comme Frozen, Toy Story ou Les Indestructibles ont été étiquetés « non destinés aux enfants ». Cette erreur a ouvert la voie à la collecte de données et à la publicité personnalisée, pratiques interdites par la COPPA.

En 2020, YouTube avait pourtant corrigé plus de 300 vidéos mal classées, les passant en « contenu enfant ». Malgré ce signalement, Disney a maintenu son système de réglage global, y compris sur des chaînes explicitement dédiées aux plus jeunes comme Disney Junior, Mickey Mouse ou Pixar Cars. L’absence de contrôle individuel a ainsi prolongé les violations de la loi.

Selon la FTC, ces erreurs ont exposé les enfants à des fonctionnalités interdites, telles que l’autoplay ou les annonces ciblées. Disney, qui tire profit des revenus publicitaires générés sur YouTube, est accusé d’avoir négligé sa responsabilité en matière de protection des mineurs.

Les obligations du règlement

L’amende de 10 M$ (≈ 9,3 M€) n’est qu’un aspect de la sanction. Disney devra désormais informer clairement les parents avant toute collecte de données personnelles concernant des enfants de moins de 13 ans et obtenir leur accord préalable.

L’entreprise est également contrainte de mettre en place un programme complet de vérification de l’ensemble de ses vidéos YouTube. Cette obligation pourrait être levée uniquement si YouTube déploie une « technologie d’assurance d’âge » : un système capable de vérifier automatiquement l’âge réel des spectateurs.

Cette perspective ouvre un débat plus large. Jusqu’ici, les plateformes reposaient sur l’autodéclaration et le bon vouloir des entreprises pour étiqueter correctement leurs contenus. L’exigence de solutions automatisées marque un tournant vers une identification systématique et centralisée des spectateurs mineurs, avec tout ce que cela implique en termes de surveillance numérique.

Une première pour les créateurs de contenus YouTube

Le président de la FTC, Andrew Ferguson, a résumé l’enjeu : « Notre décision sanctionne l’abus de confiance des parents par Disney. » Au-delà du cas particulier, ce règlement illustre une évolution : les autorités ne se contentent plus de cibler les plateformes, elles sanctionnent désormais aussi les producteurs de contenus.

C’est la première fois qu’une procédure COPPA vise directement un fournisseur de vidéos sur YouTube, et non la plateforme elle-même. En 2019, Google et YouTube avaient conclu un accord record de 170 M$ (≈ 157,7 M€) pour des violations similaires. L’affaire Disney s’inscrit donc dans la continuité d’un durcissement de la régulation, où les grandes marques ne sont pas à l’abri.

Si Disney se conforme aux nouvelles règles, les contenus destinés aux enfants devraient être correctement classés à l’avenir, limitant l’exposition aux publicités ciblées et améliorant la protection des données. Mais l’affaire rappelle surtout que la protection des mineurs ne peut être laissée au seul bon sens des entreprises, même celles qui incarnent une image familiale.

L’affaire révèle un basculement : le contrôle des contenus pour enfants se déplace vers des mécanismes de vérification technique. La question reste ouverte : jusqu’où l’« assurance d’âge » automatisée peut-elle protéger les enfants sans instaurer une surveillance généralisée des internautes ?

Pékin accuse Nvidia : soupçons de backdoors dans les puces IA H20

Nvidia dans le viseur de la Chine : Pékin suspecte ses puces IA H20 d’abriter des backdoors, ravivant la guerre technologique sur fond de cybersurveillance mondiale.

 

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

La Chine vient d’interpeller Nvidia, géant américain des semi-conducteurs, au sujet de présumés backdoors dans ses puces H20 destinées à l’intelligence artificielle locale. Pékin s’appuie sur de nouvelles lois sur la cybersécurité pour exiger transparence et garanties techniques, tandis que Washington impose, de son côté, des restrictions et des mécanismes de contrôle dans les puces exportées. Cet épisode cristallise la montée en puissance des tensions entre les deux superpuissances numériques, où la sécurité, la souveraineté et la capacité de renseignement s’entremêlent. Retour sur les dessous d’un affrontement qui redéfinit les équilibres du cyberespace mondial.

L’ombre du renseignement : Pékin convoque Nvidia

Au matin du 31 juillet 2025, une rumeur parcourt les couloirs feutrés des grandes universités technologiques de Pékin. Dans un communiqué solennel, la Cyberspace Administration of China (CAC), autorité suprême du cyberespace, annonce avoir convoqué l’un des plus puissants fabricants mondiaux de puces d’intelligence artificielle : Nvidia.

La raison officielle ? La présence de « vulnérabilités de sécurité sérieuses » – des backdoors selon l’administration – dans les puces H20, version modifiée et bridée, spécialement conçue pour satisfaire aux exigences américaines en matière d’exportation vers la Chine.

Derrière la formule administrative, la réalité est bien plus explosive. Car depuis 2023, le secteur mondial des semi-conducteurs est l’objet de toutes les tensions, chaque acteur jouant une partie d’échecs à très haut risque, où chaque mouvement peut avoir des conséquences stratégiques majeures.

Washington, dans une course effrénée à la suprématie technologique, a multiplié les restrictions à l’exportation, craignant que ses technologies ne viennent renforcer la puissance militaire et cybernétique chinoise. Mais la diplomatie du silicium ne se limite pas à un simple jeu de barrières douanières. Depuis quelques mois, la législation américaine va plus loin : avec le Chip Security Act, toute puce IA exportée doit embarquer des fonctions de traçage GPS, de localisation et de coupure à distance.

Pour Pékin, c’est une déclaration de guerre numérique à peine voilée.

La cyberguerre dans le silicium : l’art du soupçon et de la riposte

La convocation de Nvidia par les autorités chinoises n’est pas un geste isolé. Elle s’inscrit dans une stratégie globale, où la souveraineté numérique est devenue une priorité nationale. La Chine, qui ne cesse de rappeler son attachement à la « cybersécurité et à la protection des données des utilisateurs », applique strictement ses lois : Cybersecurity Law, Data Security Law et Personal Information Protection Law.

Au centre de l’enquête, une question : les puces H20, qui font tourner nombre d’algorithmes d’intelligence artificielle en Chine, sont-elles vraiment sûres ?

En creux, la peur d’un sabotage à distance. Si les puces américaines comportent effectivement des modules de tracking ou de télécommande, Washington pourrait, en cas de crise, désactiver à volonté une partie de l’infrastructure numérique chinoise. Un scénario digne de la cyberguerre froide, mais qui devient, à la lumière des technologies actuelles, de plus en plus crédible.

La réponse de Nvidia ne s’est pas fait attendre. L’entreprise, par la voix d’un de ses porte-paroles, nie toute présence de backdoor : « La cybersécurité est essentielle pour nous. Nvidia ne place aucune porte dérobée dans ses puces permettant un accès ou un contrôle à distance par un tiers. »

Mais la défiance est tenace, et pour cause : dans le même temps, le marché noir s’empare du sujet. Selon les estimations, pour plus d’un milliard de dollars (environ 920 millions d’euros) de puces Nvidia, parfois des modèles officiellement bannis comme les B200, H10 ou H200, auraient trouvé leur chemin vers la Chine via des circuits parallèles. Kits complets, racks prêts à l’emploi, tout s’arrache sous le manteau – preuve que le besoin de puissance de calcul reste insatiable, quelles que soient les réglementations.

Sécurité nationale, souveraineté et rivalité : le vrai visage de la crise

Ce bras de fer n’est pas qu’une affaire de technique : il symbolise la nouvelle géopolitique du renseignement à l’ère de l’IA. En exigeant de Nvidia la remise de « preuves », de « documents techniques » et d’« explications détaillées », Pékin affiche sa volonté de contrôler la chaîne technologique, mais aussi de démontrer à ses propres acteurs économiques la nécessité d’une indépendance stratégique.

Les failles supposées des puces H20 ne sont en réalité que l’arbre qui cache la forêt. Car malgré les efforts de géants nationaux comme Huawei ou SMIC, la Chine reste encore dépendante, pour les applications de pointe, des technologies américaines. Le lancement du dernier notebook Huawei, salué comme une avancée nationale, a aussi révélé le retard technologique du pays – des générations entières de retard, difficilement comblables sans coopération internationale.

La bataille se joue également sur le terrain du renseignement : dans le cyberespace, tout composant étranger est désormais considéré comme une menace potentielle. L’incertitude est totale. Qui détient vraiment la clé du contrôle de ces puces ? Les circuits imprimés sont-ils de simples outils, ou des armes silencieuses, prêtes à être activées à distance ?

Pour Pékin, la réponse est claire : seule une maîtrise totale de la chaîne technologique, du design à la production, en passant par le contrôle des codes sources, permettra de garantir la sécurité nationale. En attendant, la Chine redouble d’efforts pour stimuler son industrie, investir massivement dans la recherche et l’innovation, et limiter sa dépendance à l’Occident.

Mais la tâche est titanesque. Face à une Silicon Valley toujours à la pointe, les ambitions chinoises se heurtent à des décennies de domination américaine. Le feuilleton des puces Nvidia H20 n’est qu’un épisode de plus dans une série au long cours : celle de la conquête, puis de la sécurisation, du cyberespace mondial.

WeTransfer dans la tourmente : vos fichiers peuvent-ils vraiment être utilisés pour entraîner une IA ?

WeTransfer a récemment déclenché une vague d’indignation en modifiant discrètement ses conditions générales d’utilisation. En jeu : une licence d’exploitation massive sur vos fichiers… et potentiellement leur usage dans des intelligences artificielles.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée

 

En juillet 2025, la plateforme de transfert de fichiers WeTransfer, prisée par des millions de créatifs, journalistes et professionnels, a discrètement mis à jour ses conditions générales d’utilisation. Une nouvelle clause a suscité une vive polémique : elle accordait à l’entreprise une licence étendue pour exploiter les fichiers transférés – incluant la possibilité de les modifier, reproduire, distribuer… voire les utiliser à des fins d’entraînement d’intelligence artificielle.

Face à une levée de boucliers sur Reddit, LinkedIn et dans les cercles créatifs, la société a fait machine arrière. Mais l’affaire soulève des questions cruciales : que devient réellement ce que vous transférez ? Et à quel prix pour votre confidentialité ?

Une licence qui va (très) loin

La version de juillet 2025 des CGU de WeTransfer stipulait que les utilisateurs concédaient une licence perpétuelle, mondiale, gratuite, transférable et sous-licenciable à l’entreprise sur tous les fichiers envoyés via la plateforme.

Dans le détail, cette licence permettait à WeTransfer de :

  • reproduire vos fichiers,

  • créer des œuvres dérivées,

  • les modifier,

  • les distribuer,

  • les afficher publiquement,

  • et même… les utiliser pour former ses propres modèles d’intelligence artificielle.

Autrement dit, vos projets de design, vos photos confidentielles, vos productions vidéos ou fichiers journalistiques pouvaient servir d’alimentation à une IA maison, sans votre consentement explicite… ni compensation.

« C’est totalement fou. On transfère nos rushs à nos clients, et là on apprend que WeTransfer peut les réutiliser comme bon lui semble ? » — témoignage d’un monteur freelance sur Reddit

Le retour de bâton : colère, buzz, et retrait partiel

La clause n’est pas passée inaperçue. Sur les réseaux sociaux, les réactions ont été instantanées et virulentes :

  • Reddit a vu fleurir des topics avec des titres comme “WeTransfer just gave itself full rights to your files” ou “Alerte, ils veulent nourrir leur IA avec nos projets”.

  • LinkedIn a vu des appels au boycott, notamment du côté des créateurs de contenu et photographes professionnels.

  • Plusieurs juristes ont également pointé une potentielle incompatibilité avec le RGPD.

Résultat : à peine une semaine plus tard, WeTransfer a publié une mise à jour. La société y assure ne pas utiliser les fichiers des utilisateurs pour entraîner d’intelligence artificielle ni les monétiser auprès de tiers.

Mais — et c’est un point crucial — la licence d’utilisation étendue n’a pas été totalement retirée. Elle demeure, même sans l’usage de l’IA.

Action Description
Lire les CGU Avant chaque envoi, surtout pour les plateformes freemium.
Ne pas utiliser WeTransfer pour des fichiers sensibles Données clients, fichiers juridiques, créations inédites : passez votre tour.
Préférer un chiffrement en amont Crypter localement vos fichiers (ex : avec VeraCrypt, 7-Zip AES).
Opter pour des alternatives plus transparentes Par exemple : SwissTransfer (serveurs suisses), SpiderOak, Tresorit (protection juridique forte, pas de clause d’usage commercial). Le service Bluefiles est une alternative parfaite. (protection juridique forte, Français).
Suivre les mises à jour légales Les CGU changent vite et souvent. Mieux vaut les suivre comme on suit une météo instable.

⏳ Jusqu’où tolérerez-vous d’être piraté ?

CTI ZATAZ – Scannez les menaces vous concernant avant qu’il ne soit trop tard.

✅ Scanner mes risques

Confidentiel. Instantané. Sécurisé. Zéro intermédiaire. 100 % Made in France.

Sécurité : chiffrée, mais pas invisible

Sur le plan de la sécurité technique, WeTransfer communique volontiers sur sa conformité avec le RGPD et sur l’utilisation de mesures solides :

  • Chiffrement TLS et AES-256 pour les transferts.

  • Suppression automatique des fichiers après 48h ou selon durée choisie (jusqu’à 1 an si compte Pro).

  • Serveurs conformes aux clauses contractuelles types de l’UE pour les transferts hors EEE.

  • Audits et accès restreints au personnel autorisé.

Sur le papier, c’est rassurant. Mais une question subsiste : à quoi bon crypter si, contractuellement, l’entreprise se réserve le droit de consulter, modifier ou dupliquer le contenu ?

Autrement dit : la sécurité technique ne compense pas une politique de droits d’usage agressive.

Ce que dit le droit (et ce qu’il ne dit pas)

WeTransfer s’appuie sur un principe juridico-commercial courant dans le numérique : l’octroi de licence large pour assurer le bon fonctionnement du service. En clair, permettre à un serveur de copier temporairement un fichier, c’est techniquement une « reproduction ».

Mais là où beaucoup d’acteurs s’arrêtent à une licence limitée à l’exploitation nécessaire du service, WeTransfer avait franchi la ligne avec :

  • la possibilité de créer des œuvres dérivées,

  • l’autorisation de sous-licencier à des tiers,

  • l’usage dans des “produits, services ou technologies futurs”, ce qui inclut… l’IA.

Même après la suppression de la mention IA, ces points restent valides.

Un cas d’école sur le consentement numérique

L’affaire WeTransfer montre à quel point le texte des conditions générales n’est jamais anodin. Derrière un service pratique et populaire peut se cacher une stratégie d’exploitation des données, souvent camouflée dans des formulations juridiques d’apparence banale.

Cette tentative de licence “gloutonne” — et son retrait partiel sous pression — illustre :

  • le déséquilibre informationnel entre plateformes et utilisateurs ;

  • la fragilité de notre consentement numérique ;

  • l’importance d’une veille active sur les pratiques contractuelles, surtout pour les pros de la création, du journalisme et de la cybersécurité.

WeTransfer reste un outil rapide, intuitif, et pratique pour échanger de gros fichiers. Mais sa politique d’utilisation soulève des interrogations profondes sur la monétisation des données, le respect de la vie privée, et l’évolution des rapports de force entre utilisateur et plateforme.

En 2025, le cloud ne vaut pas que par sa vitesse de transfert. Il vaut aussi par ce qu’il nous fait perdre — ou garder — de nos droits fondamentaux sur nos propres données.

Rejoignez-nous sur les réseaux sociaux

Aucun spam – Désinscription en un clic – Vie privée respectée