Le 25 avril 2023, des responsables de la Federal Trade Commission, du Consumer Financial Protection Bureau (« CFPB »), de la Division des droits civils du ministère de la Justice (« DOJCRD ») et de la Equal Employment Opportunity Commission (« EEOC ») ont publié une déclaration conjointe sur Efforts d’application contre la discrimination et les préjugés dans les systèmes automatisés (« Déclaration »), également parfois appelés « intelligence artificielle » (« IA »).
La déclaration, publiée par Rohit Chopra (directeur, CFPB), Kristen Clarke (procureure générale adjointe, DOJCRD), Charlotte Burrows (présidente, EEOC) et Lina Khan (présidente, FTC), décrit l’engagement des quatre agences à faire respecter les lois dans leurs compétences respectives pour se protéger contre les préjugés et autres préjudices dans les systèmes automatisés. La déclaration se concentre sur les logiciels de « systèmes automatisés » et les processus algorithmiques, y compris l’IA, qui sont utilisés pour automatiser les flux de travail et aider les personnes à accomplir des tâches ou à prendre des décisions, notamment en ce qui concerne l’accès aux opportunités d’emploi, aux opportunités de crédit immobilier et à d’autres biens et services.
La déclaration a mis en évidence les exemples suivants de positions des agences concernant les systèmes automatisés.
- La FTC, qui protège les consommateurs des pratiques commerciales déloyales et trompeuses et de la concurrence déloyale (par exemple, en vertu de l’article 5 de la loi FTC, du Fair Credit Reporting Act et de l’Equal Credit Opportunity Act), a publié un rapport au Congrès en 2022 évaluant l’utilisation de l’IA dans la lutte contre les dommages en ligne et soulignant les inquiétudes quant au fait que les outils d’IA peuvent être inexacts, biaisés et encourager la surveillance commerciale invasive. La FTC a averti en février et mars 2023 que les impacts discriminatoires, les déclarations non fondées et l’incapacité à évaluer et à atténuer les risques liés aux outils d’IA pourraient enfreindre la loi FTC. La FTC a exigé ces dernières années des entreprises qu’elles détruisent les algorithmes (In re Everalbum, Inc.) et d’autres produits de travail (In re Weight Watchers/WW) qui ont été formés sur des données qui n’auraient pas dû être collectées.
- Le CFPB, qui protège le marché financier contre les actes ou pratiques déloyaux, trompeurs ou abusifs et contre la discrimination, a publié une circulaire en mai 2022 indiquant que les lois sur la protection des consommateurs financiers, y compris l’obligation de notifier les actions défavorables sur les demandes de crédit, s’appliquent indépendamment de la technologie utilisée, et que les algorithmes complexes devraient être évités lorsque leur utilisation signifierait que les créanciers ne pourraient pas fournir les raisons requises pour les actions défavorables.
- Le DOJCRD, qui applique les dispositions constitutionnelles et les lois fédérales interdisant la discrimination, a déposé une déclaration d’intérêt en janvier 2023 dans le cadre d’un procès en cours devant le tribunal de district américain du district du Massachusetts expliquant comment le Fair Housing Act, qui interdit la discrimination en matière de logement sur la base de race, de couleur, de religion, de sexe, de situation familiale, d’origine nationale et de handicap, s’applique aux services de sélection de locataires basés sur des algorithmes.
- L’EEOC, qui applique les lois fédérales interdisant la discrimination à l’encontre des candidats ou des employés en raison de la race, de la couleur, de la religion, du sexe, de l’origine nationale, de l’âge, du handicap ou des informations génétiques d’une personne, a publié un document d’assistance technique en mai 2022 expliquant comment l’Americans with Disabilities Act s’applique à l’utilisation de l’IA pour prendre des décisions liées à l’emploi concernant les candidats et les employés.
La déclaration indiquait que les biais potentiels dans les systèmes automatisés peuvent provenir d’ensembles de données sous-jacents biaisés, de systèmes de «boîte noire» opaques qui masquent les biais et de la confiance dans des hypothèses erronées concernant les utilisateurs et les utilisations lors de la phase de conception du système.