TLDR :
- Aucune des principales plateformes en ligne n'est conforme à la loi sur les services numériques de l'UE (DSA). (Seule Wikipédia a satisfait à toutes les exigences).
- Les principales lacunes concernent la transparence, la responsabilité des algorithmes et la sécurité des enfants. Des plateformes comme Amazon, TikTok et Meta ont toutes échoué dans ces domaines.
- L'ASD offre une nouvelle façon de tester la responsabilité. Elle exige des audits sur la modération des contenus, les risques algorithmiques et les mesures de sécurité pour les utilisateurs.
Source de l'article complet (uniquement en néerlandais)]
Introduction
La loi sur les services numériques (DSA) de l'UE vise à rendre les grandes entreprises technologiques responsables de leur impact sur la société. Cette année, dix-neuf grandes plateformes ont fait l'objet de leurs premiers audits indépendants, mais les résultats ne sont pas brillants... et c'est un euphémisme. Aucune entreprise, à l'exception de Wikipédia, n'a atteint une conformité totale. Cela met en évidence les problèmes persistants en matière de transparence, de protection des utilisateurs et de conception d'algorithmes responsables.
Explication
L'ASD vise à responsabiliser les plateformes qui comptent plus de 45 millions d'utilisateurs dans l'Union européenne. Elle impose des audits externes pour évaluer la conformité en matière de sécurité, de protection de la vie privée et de risques algorithmiques. Des entreprises comme Google, Meta, Amazon et TikTok ont été critiquées pour leurs pratiques opaques, notamment le fonctionnement des algorithmes de recommandation et l'inefficacité de la modération.
Par exemple, les auditeurs ont constaté que l'équipe d'intervention d'urgence de TikTok n'était pas suffisamment formée, tandis qu'Amazon n'a pas expliqué le fonctionnement des recommandations de produits. Par ailleurs, des plateformes comme X ont été épinglées pour leurs processus de vérification de l'âge insuffisants. Bien que la loi ait été mise en œuvre en 2023, il existe une grande confusion sur la manière d'interpréter certaines de ses règles.
Impact et implications
Cette non-conformité totale montre à quel point il reste du travail à faire pour responsabiliser les grandes entreprises technologiques. La transparence des opérations algorithmiques n'est pas seulement un défi technique, elle est essentielle pour une surveillance publique éclairée. Les plateformes influencent des milliards d'interactions quotidiennes et leurs choix de conception façonnent le comportement d'une grande partie de la société.
Pour les défenseurs de la vie privée, les audits confirment leurs préoccupations. Le manque de responsabilité dans des domaines tels que la sécurité des enfants et la vérification de l'âge est assez alarmant. La non-conformité n'entraîne pas directement de sanctions, mais la Commission européenne peut utiliser ces résultats pour mettre en œuvre des actions, qui peuvent conduire à des amendes allant jusqu'à 6 % du chiffre d'affaires mondial.
Réflexions finales
Cet audit révèle une fois de plus l'écart entre les promesses des grandes entreprises technologiques et la réalité. Bien que l'ASD place la barre très haut, il s'agit d'une étape nécessaire pour la transparence et la sécurité des utilisateurs. Ce n'est qu'en faisant pression que nous pouvons espérer un changement pour le mieux.
Chez Simple Analytics, nous défendons cette idée depuis le début. C'est d'ailleurs la raison pour laquelle nous avons créé une alternative à Google Analytics respectueuse de la vie privée. Elle est conçue pour respecter les données des utilisateurs tout en fournissant aux propriétaires de sites Web les informations dont ils ont besoin. Pas d'algorithmes cachés, pas de complexité, pas de conneries. Si cela vous parle, n'hésitez pas à le découvrir.