L'Assurance Maladie - L'algorithme qui cible les mères les plus démunies

par Korben -

Vous pensiez que les systèmes de notation et de surveillance étaient réservés aux séries dystopiques style Black Mirror ? Arf, pas du tout ! Une enquête approfondie de la Quadrature du Net vient de mettre en lumière des pratiques pour le moins questionnables au sein même de notre Assurance Maladie.

En effet, depuis 2018, l’Assurance Maladie a mis en place un système algorithmique particulièrement controversé puisque son objectif est d’attribuer des scores de suspicion aux bénéficiaires de la Complémentaire Santé Solidaire gratuite (C2SG). Cette aide, rappelons-le, est destinée aux 6 millions de Français les plus modestes, avec un plafond de ressources fixé à moins de 10 000 € par an pour une personne seule.

Mais voilà où le bât blesse : cet algorithme ne cible pas au hasard. Il s’acharne particulièrement sur un profil bien précis : les mères de famille en situation précaire.

Comment ?

Et bien en attribuant des scores de risque plus élevés aux dossiers présentant certaines caractéristiques comme :

  • Être une femme
  • Avoir plus de 25 ans
  • Avoir des enfants mineurs à charge
  • Vivre dans un foyer comprenant plusieurs adultes

Et les implications de ce système sont loin d’être anodines car plus le score attribué est élevé, plus la probabilité d’un contrôle approfondi augmente. Et les conséquences peuvent être dramatiques : Suspension abusive de la couverture santé, rupture d’accès aux soins pour toute la famille, stress psychologique lié aux procédures de contrôle et stigmatisation des bénéficiaires ciblés

Un nouveau modèle expérimental encore plus intrusif est également dans les cartons et en plus de cibler les mères précaires, il prévoit d’ajouter aux critères de suspicion le fait d’être en situation de handicap, la fréquence des soins médicaux, les arrêts maladie et même le simple fait d’être en contact avec l’Assurance Maladie. C’est fou !

Si ce modèle n’est pas encore déployé, c’est uniquement pour des raisons techniques et légales liées au croisement des données et je vous rassure (ou pas), les équipes de la CNAM cherchent activement à obtenir les autorisations nécessaires pour le mettre en œuvre.

Comme d’hab, sous couvert de lutte contre la fraude, on met en place un système qui :

  1. Cible spécifiquement les populations les plus vulnérables
  2. Automatise les biais sociaux existants
  3. Déshumanise le processus de contrôle
  4. Masque les choix politiques derrière une apparente objectivité technique

C’est tout bonnement une rationalisation des pratiques discriminatoires, surtout quand on sait que l’absurdité de cette chasse aux sorcières numérique ne concerne qu’un tout petit pourcentage de fraudeur.

En gros, la fraude c’est 1% du budget total de la C2S, soit 25 millions d’euros) et la plupart du temps ce n’est même pas de la vraie fraude mais des erreurs involontaires. Et de l’autre côté, y’a tous ceux qui ont le droit aux aides et qui ne demandent rien, faisant faire un gain de 30% à la C2S (soit 1 milliard d’euros de d’économie)… Donc bon…

Ce serait quand même bien à un moment de garantir l’équité et la justice sociale face à ces biais algorithmiques et fixer quelques gardes fous à la surveillance numérique des plus précaires, non ?

Pour approfondir ce sujet et accéder à l’enquête complète, consultez l’article original de La Quadrature du Net : L’Assurance Maladie surveille les plus pauvres et harcèle les mères précaires