0

L’impact de l’Intelligence Artificielle dans la sphère sociale

Intervention de Meredith WHITTAKER et Rashida RICHARDSON

L’ AI Now Institute de l’université de New-York mène des recherches interdisciplinaires sur les implications sociales de l'intelligence artificielle (IA) en partenariat avec des communautés de chercheurs de différents Etats. Ses travaux s’organisent autour de quatre grandes thématiques : les droits et libertés, le travail et l’automatisation, les préjugés et l’inclusion, la sécurité et les infrastructures critiques, que Meredith Whittaker et Rashida Richardson décrivent de la manière suivante :

 

Les droits et libertés

 

Les systèmes d’intelligence artificielle se sont rapidement déployés aux USA dans différents secteurs, de la santé à l’éducation, en passant par le maintien de l’ordre et la justice pénale. Sans connaissances contextuelles, sans consentement éclairé et sans respect des droits et libertés, ces systèmes, souvent propriétaires et opaques, peuvent créer des risques qui menacent des populations déjà vulnérables.

 

Le travail et l’automatisation

 

Lorsque l'automatisation basée sur l'IA augmente, elle peut potentiellement améliorer l'efficacité et minimiser les tâches répétitives de l'homme. Mais si elle est mise en œuvre sans tenir compte de ses implications sociales, elle peut avoir des effets déstabilisateurs. A l’occasion de l’atelier AI Now Experts en 2016, Jason Furman, économiste à l’Harvard Kennedy School, a déclaré que 83% des emplois à faible revenu aux États-Unis et 31% des emplois à revenu moyen sont vulnérables à l'automatisation. Cela représente un changement radical dans l'histoire du travail aux États-Unis mais aussi plus largement dans le monde. La portée de ce changement international se ressentira toutefois de manière inégale.

 

Il est important de comprendre en quoi le rôle de l'IA et des systèmes algorithmiques associés modifie d’ores et déjà l'équilibre du pouvoir sur le lieu de travail. Les techniques d'apprentissage automatique ont été rapidement intégrées aux décisions de gestion et de recrutement dans de nombreux secteurs. Ces nouvelles techniques promettent souplesse et efficacité mais elles peuvent également renforcer la surveillance des travailleurs qui, souvent, peuvent ne plus savoir quand et comment ils sont suivis et évalués ni pourquoi ils sont embauchés ou licenciés. En outre, les formes de gestion assistées par l’IA sont susceptibles d’altérer voire remplacer les formes démocratiques de négociation entre travailleurs et employeurs, augmentant ainsi le pouvoir du propriétaire sous le couvert de la neutralité technique.

 

Les préjugés et l’inclusion

 

De manière vertueuse, les systèmes algorithmiques d'aide à la décision peuvent être utilisés pour renforcer le jugement humain et réduire les biais conscients et inconscients. Cependant, les données d'apprentissage, les algorithmes et les choix de conception qui façonnent les systèmes d'intelligence artificielle peuvent a contrario refléter voire amplifier les préjugés et les inégalités culturelles. Lorsque l'apprentissage automatique est intégré à des systèmes sociaux complexes tels que la justice pénale, les diagnostics de santé, les admissions universitaires, les recrutements et les promotions de professeurs, il peut renforcer les inégalités existantes, quelles que soient les intentions des concepteurs techniques.

 

La sécurité et les infrastructures critiques

 

L'intelligence artificielle est déjà utilisée au cours des processus de prise de décision dans de nombreuses infrastructures critiques, et d'autres à venir. Des réseaux d'énergie aux hôpitaux en passant par les services financiers, l'IA, à un stade précoce, est appliquée dans le but d'améliorer l'efficacité des processus. Cependant, intégrer de nouvelles technologies dans des systèmes complexes existants est une tâche délicate et difficile, avec des risques de faille des systèmes techniques et d'erreur humaine. Des problèmes d'entrées de données, des inexactitudes, des rapports erronés peuvent conduire à tendre des systèmes et aboutir à des résultats catastrophiques. Sans stratégies appropriées de planification, d'évaluation et d'intégration, les erreurs involontaires deviennent plus probables dans les systèmes critiques auxquels nous devons faire confiance.

 

Enfin, estiment Meredith Whittaker et Rashida Richardson, de la même manière que nous valorisons l’importance à long terme de l’air pur, de l’eau potable et de la fertilité des sols, nous devons valoriser la protection des données individuelles contre les possibles utilisations néfastes de ces données.

 

Les formes de gestion assistées par l’IA sont susceptibles d’altérer voire remplacer les formes démocratiques de négociation entre travailleurs et employeurs, augmentant le pouvoir du propriétaire sous le couvert de la neutralité technique

Sans stratégies appropriées de planification, d'évaluation et d'intégration, les erreurs involontaires deviennent plus probables dans les systèmes critiques auxquels nous devons faire confiance

Lorsque l'apprentissage automatique est intégré à des systèmes sociaux complexes, il peut renforcer les inégalités existantes

Meredith WHITTAKER

 

Co-fondatrice de l’AI Now Institute et professeur à l’université de New-York. Elle a travaillé pendant plus de 10 ans chez Google où elle a fondé le Google’s Open Research Group. Animée par la conviction que le pouvoir des travailleurs et l'action collective sont nécessaires pour assurer une responsabilisation significative dans le domaine de la technologie, elle a notamment conseillé les autorités fédérales aux Etats-Unis, la ville de New York, le Parlement européen et des organisations de la société civile en matière d'intelligence artificielle, de politique internet, de respect de la vie privée et de sécurité.

 

 

Rashida RICHARDSON

 

Juriste et directrice de recherche à l’AI Now Institute.