Archives par mot-clé : réglementation européenne

Protection des mineurs sur internet quelles sont les failles du Digital Services Act ?

Le DSA, Digital Services Act, réglementation européenne entrée pleinement en application le 17 février dernier, a pour objectif de lutter contre la propagation de contenus illicites, de désinformation sur le web et vise également à favoriser la transparence des plateformes vis-à-vis des consommateurs. Face à la généralisation de l’accès des enfants aux smartphones et aux tablettes, la protection des mineurs est donc l’un des enjeux prioritaires de cette nouvelle réglementation. Grazia Cecere, Professeure à Institut Mines-Télécom Business School, spécialiste de l’économie numérique, décrypte cette nouvelle législation.

Le Digital Services Act : acteurs concernés, objectifs et mesures mises en place

Samedi 17 février 2024, le Digital Services Act (DSA) est entré en effet ; il vise entre autres à rendre Internet plus sûr et plus transparent pour les citoyens européens. Cette réglementation va s’appliquer en particulier au gatekeepers – les très grandes plateformes en ligne et les très grands moteurs de recherche, utilisés par plus de 45 millions d’Européens par mois, désignés par la Commission européenne – tels que TikTok, Facebook, Instagram, Airbnb…

Plus généralement, les fournisseurs de plateformes en ligne accessibles aux mineurs sont tenus de mettre en place des mesures appropriées pour garantir un niveau élevé de confidentialité, de sécurité et de sûreté des mineurs sur leurs services. Ce règlement vise notamment à interdire la publicité ciblée sur les plateformes en ligne pour les enfants en se basant sur des catégories spéciales de données personnelles telles que l’ethnicité, les opinions politiques ou l’orientation sexuelle.

Toutefois, ces mesures ne répondent qu’à une petite partie de la problématique et négligent d’autres dangers auxquels sont exposés les mineurs.

DSA, ce que la nouvelle réglementation européenne néglige 

Les très grandes plateformes et très grands moteurs de recherche ont donc à présent l’obligation de prendre des mesures identifiées d’atténuation des risques (vérification de l’âge, mise en place d’outils de contrôle parental ou d’outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien…). La publicité ciblée sur les mineurs devient interdite et des sanctions lourdes sont prévues pour les plateformes en infraction. Le problème principal concerne donc les entreprises ciblées : les petites entreprises (entreprises de moins de 50 salariés et de moins de 10 millions d’euros de chiffre d’affaires annuel) sont moins visées par la régulation. Or, dans le marché des applications mobiles pour enfants il y a beaucoup de développeurs de petite taille. 

L’éducation des enfants et des parents représente donc un enjeu majeur. Pour les entreprises, il existe un marché réel pour la création de contenus adaptés pour les enfants, respectueux de la vie privée et de la réglementation et qui puissent offrir une expérience utilisateur éducative et constructive.

Les mineurs et le numérique : quelques chiffres

– Une enquête du Ministère de la culture1 en France indique que 27% des enfants de moins de 2 ans utilisent une tablette ou un smartphone et ce pourcentage augmente à l’âge de 5 ans pour atteindre une utilisation de la tablette par 54% des enfants.
– 74% des enfants sont en ligne avant 14 ans, selon une étude de la CNIL publiée en 2020.
– 26% des enfants européens interrogés déclarent avoir été victimes d’arnaques par phishing.