Algorithms & Governance

Bonjour,

Utilisation d’algorithmes par l’administration et droits fondamentaux (à partir d’un cas) : je propose de faire une courte présentation autour de l’affaire SyRI. SyRI est le nom d’un logiciel qui a été utilisé dans la lutte contre la fraude sociale aux Pays-Bas (lutte contre la fraude dans le domaine de l’aide sociale entre autres). Son utilisation a été interrompue suite à une décision d’un tribunal de La Haye (NJCM c.s./De Staat der Nederlanden, 2020).

S’agit-il de ce logiciel ? Ils utilisaient des séquences ADN ?

Il s’agit du “Systeem Risico Indicatie”. “SyRI is a legal instrument used by the Dutch government to detect various forms of fraud, including social benefits, allowances, and taxes fraud”.
Dans cette affaire le tribunal de district de La Haye a jugé que la législation sur l’utilisation de l’outil SyRI est en violation avec l’article 8 de la Convention européenne des droits de l’homme.

Cela me semble comparable au Panopticon sur les pauvres : les algorithmes cachés qui façonnent l’État-providence britannique

Rapport d’enquête : https://bigbrotherwatch.org.uk/wp-content/uploads/2021/07/Poverty-Panopticon.pdf

les algorithmes cachés que les institutions ont utilisés pour classer, surveiller et profiler les personnes qui reçoivent des allocations à leur insu.

Ces algorithmes cachés « traitent les pauvres avec suspicion et préjugés ».

attribuent secrètement des scores de risque de fraude à 540 000 personnes avant qu’elles ne puissent bénéficier d’une allocation logement ou d’une aide à la taxe d’habitation.

Traitent les données personnelles de 1,6 million de personnes vivant dans des logements sociaux, afin de prévoir les arriérés de loyer

Prédire la probabilité d’être sans abri, sans emploi ou victime d’abus chez plus de 250 000 personnes

ANALYSE PRÉDICTIVE

250 000+ de « données » de personnes sont traitées par une série d’outils automatisés sans consentement pour prédire si elles seront maltraitées, deviendront sans abri, seront sans travail ou seront impliquées dans la criminalité.

La base de données d’analyse prédictive de sur les services de l’enfance de Bristol contient des informations sur 170 000 personnes.

Ces institutions s’appuient sur le « Télésoin ».
Des dispositifs d’écoute A̷̲̬̐͌m̸̺̫̈̾i̴̛͎͝ĝ̶̻̖ô̶͍n̷̳̿ē̸̼̖ Echo Dot sont installés dans des milliers de foyers de personnes âgées à travers le pays sans protection supplémentaire des données, ce qui signifie qu’Alexa envoie d’énormes quantités de données sur ces personnes au géant du commerces A̷̲̬̐͌m̸̺̫̈̾i̴̛͎͝ĝ̶̻̖ô̶͍n̷̳̿ē̸̼̖.

Cela relève en effet du “profilage des assurés sociaux”… Le rapport du “bigbrotherwatch” mentionne d’ailleurs le cas SyRI (p.31).

A post was merged into an existing topic: The Glass Room Misinformation Edition and Workshop

NOTE This session was cancelled at the last minute due to @khaled being sick. It was replaced by a series of ad-hoc discussions. Nevertheless it would be useful to continue this discussion.


NOTE Cette session a du être annulée car @khaled était trop malade. Elle a été remplacée par une série de discussions ad-hoc. Cependant il serait utile de la pousuivre !

Oui,volontiers, on peut trouver via le lien suivant une analyse du jugement SyRI :

A bientôt !