Adhérer à L'ADCpne
Administration / Justice Argent Vie sociale

Lutte contre la fraude aux prestations sociales : les limites de l’automatisation

Alors qu’un projet de loi relatif à la lutte contre les fraudes sociales et fiscales est examiné au Parlement, le Défenseur des droits attire l’attention sur les risques et les dérives d’une « industrialisation » du contrôle de la fraude aux prestations sociales avec le recours aux algorithmes et à l’intelligence artificielle (IA).

« Tous les organismes n’ont pas atteint le même degré de sophistication ni ne déploient le même arsenal technologique dans la lutte contre la fraude » mais la massification des contrôles semble un processus très engagé, constate le Défenseur des droits.

Dans ce contexte, le Défenseur des droits propose, dans son rapport remis le 23 avril 2026, un point d’étape sur l’utilisation des moyens numériques de contrôle reposant sur les algorithmes et l’intelligence artificielle (IA) et sur les risques éventuels de biais de discernement et de focalisation sur les catégories les plus précaires.

Une information insuffisante des assurés

Pour le Défenseur des droits, « les contrôles réalisés par les organismes sociaux présentent toujours des garanties procédurales insuffisantes pour les assurés, notamment eut égard à leur droit à l’information ».

Cette insuffisance d’information est relevée par le Défenseur des droits à travers :

  • la non communication à l’usager de la charte énonçant les droits et devoirs respectifs de l’usager et du contrôleur ;
  • des rapports d’enquête qui ne sont pas systématiquement communiqués aux assurés alors que cette communication est de droit ;
  • un recours au traitement algorithmique des dossiers qui n’est pas toujours communiqué de manière claire aux usagers.

Par ailleurs, le rapport pointe des risques d’entrave au respect de la vie privée dans certaines démarches de contrôle effectuées par les organismes pour recouper des informations comme par exemple :

  • la systématisation du recours au droit de communication bancaire, alors que cette pratique ne permettrait de déceler que 8% d’anomalies ; 
  • les enquêtes sur l’entourage familial de l’usager contrôlé ;
  • la consultation des réseaux sociaux des allocataires, sous couvert d’anonymat ou de faux profils. 

Des risques de surciblage et de surcontrôle de certaines catégories de population

Une large partie du rapport s’attache aux systèmes d’automatisation, de plus en plus employés par les organismes. Pour le Défenseur des droits, ces systèmes comportent des risques sous plusieurs aspects en particulier : 

  • par le surciblage, voire le surcontrôle de certaines catégories de la population (par exemple les femmes qui ont plus souvent recours à des emplois précaires et sont donc plus exposées à des erreurs dans le versement des prestations sociales) ; 
  • par une justification « approximative » du caractère nécessaire et approprié du contrôle automatisé (lutte contre la fraude, identification d’indus ou recherche de rappels) ;
  • par le recours à des critères protégés par le droit à la non-discrimination sans une analyse d’impact sur la protection des données (AIPD)

Dans ce contexte, rappelle le Défenseur, « il est impératif de favoriser la publication par les organismes des informations permettant de comprendre le fonctionnement et les effets des algorithmes de ciblage« .

Les inquiétudes du Défenseur sont partagées par le Conseil national des politiques de lutte contre la pauvreté et l’exclusion sociale (CNLE) selon lequel « la priorité au contrôle, à la gestion des risques et à la lutte contre la fraude prend le pas sur les préoccupations relatives à l’accès au droit et à la lutte contre le non-recours« .

Source : Vie publique, publié le 30 avril 2026

Pour en savoir plus :

Articles relatifs

Carte vitale : prenez garde à cette nouvelle arnaque par SMS

Colette Levassor

Quand vous regardez votre téléphone, qui regarde la route ?

Colette Levassor

Streaming légal / illégal : quels sont les risques en Europe ?

Colette Levassor