Archives par mot-clé : protection des mineurs

Bulle veut repenser les réseaux sociaux

Face aux risques d’addiction, de désinformation et de harcèlement, Bulle défend une réponse centrée sur l’architecture même des plateformes sociales.

Alors que plusieurs États veulent interdire les réseaux sociaux aux moins de 15 ans, Bulle avance une autre voie : modifier les mécanismes qui organisent l’attention, la visibilité et la circulation des contenus. Le réseau social européen estime que la vérification de l’âge ne suffit pas si les publications dangereuses restent accessibles, amplifiées ou recommandées par des algorithmes peu lisibles. Sa proposition repose sur trois leviers : transparence algorithmique, limitation du temps d’usage et cadre éditorial strict. L’enjeu dépasse la protection des mineurs : il touche à la sécurité informationnelle et à la responsabilité des plateformes numériques.

Une réponse au-delà du contrôle d’âge

La protection des mineurs en ligne s’impose désormais comme un sujet politique central. En France, en Turquie, en Espagne, en Grèce ou en Norvège, des textes ont été adoptés ou préparés pour encadrer plus fermement l’accès des jeunes aux réseaux sociaux. Cette dynamique dépasse l’Europe. L’Australie a instauré, depuis fin 2025, une limite d’âge fixée à 16 ans. Selon les premiers bilans cités, cette mesure n’a pas modifié de façon notable la domination des grandes plateformes. ZATAZ explique même que dès l’annonce de ces nouvelles régles, les pirates proposaient à la vente des comptes et des accès afin de passer outre les restriction !

Ces initiatives traduisent une même inquiétude : l’exposition des adolescents à des contenus violents, trompeurs ou addictifs. Elles reposent pourtant sur une logique principalement défensive. Il s’agit de filtrer l’entrée, de vérifier l’âge, puis d’autoriser ou de bloquer l’accès. Cette approche laisse intact le cœur du problème. Une plateforme peut contrôler l’âge de ses utilisateurs tout en conservant des systèmes de recommandation opaques, capables de pousser des contenus anxiogènes, polarisants ou trompeurs.

Un réseau social n’est pas seulement un espace d’expression. C’est aussi une infrastructure de visibilité, où chaque signal, chaque interaction et chaque recommandation peut orienter l’attention collective. Lorsque les règles internes restent invisibles, les utilisateurs ne savent pas pourquoi certains contenus leur sont montrés, ni comment certaines publications gagnent en puissance.

Bulle affirme donc que la réponse ne peut pas se limiter à l’interdiction. Le réseau social européen propose de déplacer le débat vers la conception même des outils numériques. L’objectif consiste à réduire les risques avant qu’ils ne deviennent structurels : dépendance aux flux, exposition répétée à des contenus toxiques, propagation de rumeurs ou pression sociale permanente.

La plateforme agit d’abord sur le temps d’usage. Par défaut, chaque utilisateur dispose d’une limite quotidienne d’une heure trente. Ce choix vise à casser la logique de captation continue, souvent centrale dans les modèles d’engagement. Un couvre-feu nocturne est appliqué. Il bloque automatiquement l’accès pendant la nuit. Cette mesure s’inscrit dans une approche de réduction des risques, plutôt que dans une exclusion totale des jeunes publics.

Le principe est clair : limiter l’emprise sans supprimer les usages. Les adolescents, les créateurs, les journalistes et les médias peuvent continuer à utiliser des formats sociaux attractifs, mais dans un cadre moins dépendant de la stimulation permanente. Le sujet n’est plus seulement l’âge biologique de l’utilisateur. Il devient la qualité de l’environnement numérique dans lequel cet utilisateur évolue.

Envie de tester ? Cette proposition n’est pas un partenariat ou toutes autres démarches commerciales. Juste vous permettre de découvrir un projet qui nous semble prometteur et respectueux de l’Internet et des Internautes ! Voici comment faire : www.bulle.media. Lors de votre inscription, utilisez le code parrainage : 0F6NXW

Des algorithmes publics pour une information lisible

Le deuxième pilier de Bulle concerne la transparence algorithmique. La plateforme indique que ses algorithmes de recommandation sont publics et consultables. Cette orientation tranche avec le fonctionnement dominant des grands réseaux sociaux, où les critères de diffusion restent souvent difficiles à comprendre. Cette lisibilité compte : elle permet d’observer les mécanismes qui hiérarchisent l’information, favorisent certains contenus et organisent la visibilité.

Rendre un algorithme consultable ne supprime pas tous les risques. Mais cela modifie le rapport de force entre la plateforme, les producteurs de contenus et les utilisateurs. Les règles ne sont plus seulement imposées dans une boîte noire. Elles deviennent discutables, vérifiables et potentiellement contrôlables. Pour les médias et les journalistes, cette transparence peut aussi renforcer la confiance dans les conditions de diffusion.

Bulle associe cette transparence à une charte de déontologie stricte. Les publications doivent respecter des règles explicites, pensées pour limiter la désinformation et les dérives. Cette dimension éditoriale donne à la plateforme une identité particulière : elle ne se présente pas uniquement comme un outil social, mais comme un espace structuré pour l’information et la création. Les contenus y circulent dans un cadre défini, où la responsabilité des auteurs est placée au centre.

Cette organisation répond à une demande croissante : disposer de formats numériques attrayants, sans abandonner les exigences de fiabilité. Les créateurs peuvent publier, les médias peuvent diffuser, les journalistes peuvent toucher leurs publics, mais dans un environnement où les règles de visibilité et de publication sont affichées. Le modèle revendiqué cherche donc un équilibre entre attractivité, responsabilité et sécurité informationnelle.

Clément Étoré, fondateur de Bulle, résume cette logique en opposant la restriction d’accès à la transformation des mécanismes internes. Selon lui, les réponses actuelles s’appuient surtout sur l’interdiction ou la vérification de l’âge, sans changer les logiques profondes des plateformes. Il souligne que ces logiques déterminent la circulation des contenus et la captation de l’attention. Sur Bulle, explique-t-il, les algorithmes sont publics, l’usage est limité par défaut et une charte de déontologie encadre les publications. L’objectif annoncé est de réduire les risques d’addiction et de désinformation, tout en conservant des formats adaptés aux jeunes, aux créateurs et aux médias.

Dans cette bataille, l’enjeu n’est plus seulement de bloquer l’accès, mais de rendre visibles les mécanismes qui gouvernent l’information.

La CNIL durcit le ton en 2025, amendes record

En 2025, la CNIL a tranché 259 fois, avec 83 sanctions et près de 486,8 millions d’euros d’amendes. Derrière ces chiffres, une pression nette sur les traceurs, la surveillance au travail et la sécurité.

La CNIL dresse un bilan 2025 marqué par 259 décisions, dont 83 sanctions, 143 mises en demeure, 31 rappels aux obligations légales et 2 avertissements. Les sanctions totalisent 486 839 500 euros, réparties entre 78 amendes, des injonctions sous astreinte, trois liquidations d’astreinte et deux rappels à l’ordre, avec dix décisions rendues publiques. Les cookies et traceurs restent un front prioritaire, avec 21 sanctions et deux amendes majeures à 325 millions et 150 millions d’euros. La CNIL cible aussi la vidéosurveillance des salariés, les sous-traitants et, via les mises en demeure, l’aide sociale à l’enfance et les services en ligne utilisés par des mineurs.

Cookies, traceurs, et l’illusion du consentement

Le chiffre frappe d’emblée : 486 839 500 euros d’amendes cumulées pour 83 sanctions en 2025. Ce total n’est pas qu’un record comptable, il raconte une ligne de conduite. La CNIL veut faire comprendre qu’un bandeau de cookies mal conçu n’est plus une “erreur de paramétrage”, mais un dispositif qui peut priver l’internaute d’un choix réel. Sur l’année, 16 sanctions ont été rendues par la formation restreinte, dans la procédure dite ordinaire, tandis que 67 ont été décidées dans le cadre simplifié instauré en 2022, par le président de la CNIL ou un membre de cette formation. Le message est simple : l’arsenal existe, il est utilisé, et il va vite.

Dans le détail, le paquet de sanctions comprend 78 amendes, dont 27 assorties d’injonctions sous astreinte. À cela s’ajoutent trois décisions de liquidation d’astreinte, autrement dit le paiement exigé quand un organisme n’exécute pas l’ordre donné dans une sanction précédente, et deux rappels à l’ordre. Dix décisions ont été rendues publiques, un levier de réputation que l’autorité active quand l’exemplarité devient un outil de conformité.

La bataille la plus lisible reste celle des cookies et autres traceurs. Cinq ans après ses lignes directrices et ses recommandations, la CNIL a poursuivi son plan d’action et ses contrôles ont mis au jour des non-conformités. Vingt-et-un acteurs ont été sanctionnés pour des manquements variés : dépôt de traceurs sans consentement, informations trop pauvres pour permettre un accord éclairé, refus de l’utilisateur ignoré, ou retrait du consentement rendu inopérant. L’enjeu, souligné par les décisions, tient à l’asymétrie : des données peuvent être collectées et exploitées sans que la personne s’en rende compte, ou sans qu’elle puisse réellement s’y opposer.

Le durcissement s’incarne surtout dans deux amendes massives, à 325 millions et 150 millions d’euros. L’argument de l’autorité est frontal : les règles ne sont plus nouvelles, la CNIL dit avoir largement communiqué dessus depuis des années, et les acteurs concernés ne pouvaient pas prétendre les découvrir. Derrière la conformité juridique, c’est un sujet de renseignement économique et d’influence qui affleure : maîtriser les traceurs, c’est maîtriser les flux de données qui alimentent le profilage, la mesure d’audience, le ciblage et, parfois, des chaînes de sous-traitance difficiles à cartographier.

Surveillance au travail, sous-traitants et sécurité des données

Un autre terrain révèle la même tension entre sécurité et contrôle : la vidéosurveillance des salariés. En 2025, 16 organismes ont été sanctionnés pour non-respect du cadre applicable. La CNIL rappelle une limite : en dehors de circonstances exceptionnelles, par exemple liées à des exigences particulières de sûreté ou à la lutte contre le vol, une captation vidéo permanente constitue une atteinte aux données personnelles. Filmer en continu des caissiers ou des bureaux, c’est transformer l’outil de protection en instrument de suivi. Plus sensible encore, les caméras dissimulées ne peuvent être tolérées qu’à titre exceptionnel, et seulement si l’équilibre est respecté entre l’objectif poursuivi, protéger biens et personnes, et la vie privée des salariés.

La CNIL insiste aussi sur un point souvent sous-estimé dans les organisations : la responsabilité des sous-traitants. Au-delà des dossiers cookies et vidéosurveillance, la formation restreinte a sanctionné des manquements aux obligations liées aux données confiées. Le rappel est net : mettre en place des mesures techniques et organisationnelles adaptées au niveau de risque, n’agir que sur instruction du responsable de traitement, et effacer les données à la fin de la relation contractuelle. Ici, la dimension cyber est immédiate : une chaîne de sous-traitance mal gouvernée élargit la surface d’attaque, multiplie les comptes, les accès, les copies, et rend l’incident plus probable comme plus opaque.

La procédure simplifiée, elle, dessine une typologie des fautes répétées. Trois motifs dominent en 2025 : sécurité insuffisante, absence de coopération avec la CNIL, et non-respect des droits des personnes. Quatorze organismes ont été épinglés pour ne pas avoir déployé toutes les mesures nécessaires à la confidentialité, avec des exemples concrets comme des mots de passe trop faibles ou des comptes partagés entre utilisateurs. Quatorze autres ont été sanctionnés pour n’avoir pas répondu aux sollicitations de la CNIL. Enfin, quatorze décisions visent la mauvaise prise en compte de demandes d’effacement, d’opposition ou d’accès, là où le RGPD impose une mécanique de réponse traçable.

La prospection, commerciale comme politique, n’échappe pas au contrôle : dix sanctions concernent des opérations de démarchage. La CNIL rappelle que la prospection électronique requiert le consentement, qu’il s’agisse d’envoi direct ou de transmission des données à des partenaires. Elle a aussi sanctionné cinq candidats aux élections européennes et législatives de 2024, en soulignant l’obligation de pouvoir prouver la licéité des messages envoyés.

À côté des sanctions, 143 mises en demeure structurent la prévention sous contrainte. Plusieurs concernent l’aide sociale à l’enfance, avec des manques sur la conservation des dossiers de mineurs, l’information des personnes, la gestion des habilitations et des mots de passe, la tenue du registre des traitements, ou encore la réalisation d’une analyse d’impact. D’autres visent des sites qui déposaient des traceurs sans offrir un refus simple, ou sans respecter le retrait du consentement. Enfin, des applications mobiles et des jeux en ligne, dont une part importante des usagers sont mineurs, ont été mis en demeure de renforcer le contrôle de l’âge et d’améliorer la transparence.

Dans tous les cas, la CNIL verrouille un principe souvent oublié : les amendes, qu’elles touchent le public ou le privé, sont recouvrées par le Trésor public et versées au budget de l’État.

Au fond, ce bilan 2025 décrit une même logique de cyber-renseignement : réduire les angles morts de la donnée, là où se nichent à la fois le risque d’attaque et la tentation de surveiller.