La gestion algorithmique est le passé, pas l’avenir du travail

La gestion algorithmique est la gestion scientifique du XXIe siècle. Les mesures de la qualité de l’emploi devraient être explicitement incluses dans les évaluations des risques pour la santé et la sécurité des systèmes d’intelligence artificielle sur le lieu de travail.

L’IA sur le lieu de travail: quels enjeux?

L’utilisation de l’intelligence artificielle sur le lieu de travail a été saluée à la fois comme l’avenir du travail et sa destruction. Les applications de l’IA conviviales pour les travailleurs sur le lieu de travail comprennent l’automatisation des tâches dangereuses, sales et ennuyeuses, la planification stratégique de la main-d’œuvre, l’apprentissage et la requalification. Cependant, des applications qui pourraient nuire plutôt qu’aider les travailleurs font également leur apparition. Il a été démontré que les algorithmes d’IA en matière d’embauche et de promotion sont discriminatoires, par exemple. La gestion algorithmique (AM) est tout aussi préoccupante pour les travailleurs.

AM est l’utilisation de l’IA pour attribuer des tâches et surveiller les travailleurs. Il comprend un suivi continu des travailleurs, une évaluation constante des performances et la mise en œuvre automatique des décisions, sans intervention humaine. Ces algorithmes sont conçus pour optimiser l’allocation efficace des ressources dans la production de biens et services, en aidant les organisations à réduire les coûts, à maximiser les profits et à assurer la compétitivité sur le marché.

Cependant, l’optimisation de l’efficacité peut se faire au détriment du bien-être des travailleurs. La détérioration de la qualité du travail est souvent un effet secondaire des algorithmes de planification et d’allocation. Dans les entrepôts, les robots ne remplacent pas encore les travailleurs, mais les algorithmes optimisent les emplois pour faire en sorte que les travailleurs ressemblent davantage à des robots et pour minimiser le temps d’inactivité des travailleurs (au point qu’ils sautent les pauses dans les toilettes). Dans le commerce de détail, les algorithmes de planification présentent aux travailleurs des heures longues et imprévisibles, ce qui rend presque impossible l’équilibre entre la vie personnelle et le travail. Ne se limitant plus aux plates-formes de travail numériques, la FA est désormais omniprésente dans toute l’économie, en particulier dans le commerce de détail, les centres d’appels, les hôpitaux et les entrepôts.

Rien de tout cela n’est nouveau cependant. Il n’est pas nécessaire de chercher bien loin pour trouver des preuves des effets néfastes de telles pratiques d’optimisation. Frederick Taylor Principes de gestion scientifique, écrit en 1911, se lit comme un guide du XXIe siècle sur la gestion axée sur les données: collecte de données et analyse des processus, efficacité et normalisation, et transfert des connaissances des travailleurs vers les outils, les processus et la documentation. La transformation numérique que les organisations ont traversée au cours des dernières décennies leur a laissé des montagnes de données et une technologie bon marché pour stocker et analyser ces données. Avec l’essor de l’IA sur le lieu de travail, le rêve de Taylor de processus de travail parfaitement optimisés pourrait enfin devenir réalité.

Cependant, cela aurait un prix. Les usines Ford adhérant aux principes de Taylor avaient un taux de rotation du personnel de plus de 350% (ce qui signifie que l’ensemble du personnel devait être remplacé 3,5 fois par an). Il n’est pas difficile de voir que la qualité du travail était extrêmement mauvaise sur les chaînes de montage Ford.

Il existe un grand nombre de preuves sur l’effet de l’autonomie du travail sur le bien-être et la santé des travailleurs. Il a été démontré que les emplois à faible autonomie ou à faible contrôle entraînent des problèmes de santé et une tension mentale. Les affections aiguës, le risque cardiovasculaire, les troubles musculo-squelettiques, les problèmes de santé mentale, les incapacités fonctionnelles et les problèmes de santé auto-évalués sont également associés à des emplois à faible autonomie chez les travailleurs âgés. Les données sur les résultats observables sur la santé confirment les effets auto-évalués: les maladies coronariennes et même la mortalité cardiovasculaire sont influencées par le contrôle du travail au fil du temps. Ces effets à long terme sur la santé des travailleurs pourraient se faire sentir des années après avoir été exposés à des emplois à faible autonomie.

Les indicateurs de qualité de l’emploi développés par Eurofound (la Fondation européenne pour l’amélioration des conditions de vie et de travail) incluent la capacité de changer l’ordre des tâches, la capacité de choisir ou de changer la vitesse ou le rythme de travail et la capacité de changer ou de choisir des méthodes de travail. Les trois mesures ont augmenté en Europe entre 2005 et 2015 (graphique 1). Compte tenu de l’impact spécifique de l’IA sur l’automatisation de ces types de décisions, il existe un risque réel que ces formes d’IA sur le lieu de travail inversent cette évolution et ramènent le bien-être des travailleurs de 100 ans en arrière.

Réglementation de l’IA versus réglementation du travail

Une certaine protection des travailleurs de l’Union européenne contre une optimisation excessive basée sur l’IA pourrait provenir des propositions de la Commission européenne visant à garantir une IA digne de confiance, publiées le 21 avril. L’objectif de la Commission est de garantir la santé, la sécurité et les droits fondamentaux des personnes et des entreprises, tout en favorisant l’adoption et l’innovation de l’IA.

La proposition identifie huit domaines d’application de l’IA considérés à haut risque pour la santé et la sécurité. À juste titre, la commission inclut parmi ceux-ci l’utilisation de l’IA dans la gestion de l’emploi et des travailleurs. La Commission mentionne spécifiquement les algorithmes d’affectation des personnes aux emplois (recrutement, sélection, promotion et licenciement) et les algorithmes de planification et de productivité (répartition des tâches, suivi et évaluation). Selon la Commission, ces systèmes «Peut avoir un impact notable sur les perspectives de carrière et les moyens de subsistance des travailleurs» par «Perpétuer les schémas historiques de discrimination»et violer «Droits à la protection des données et à la vie privée».

Cependant, comme nous l’avons montré, les préoccupations concernant l’IA sur le lieu de travail devraient s’étendre au-delà des perspectives de carrière et des moyens de subsistance pour atteindre la qualité de l’emploi et le bien-être des travailleurs. Outre la réglementation de l’IA, la réglementation européenne sur le lieu de travail pourrait aider à atténuer les risques pour la santé associés à un faible contrôle de l’emploi découlant de la gestion algorithmique. Au niveau européen, deux principaux textes législatifs sont pertinents dans ce contexte: le droit du travail (couvrant les conditions de travail telles que les heures de travail, le travail à temps partiel et le détachement de travailleurs, ainsi que l’information et la consultation des travailleurs sur les licenciements collectifs et les transferts d’entreprises) et la directive-cadre sur la sécurité et la santé au travail (SST) (89/391) (créant une obligation légale pour les employeurs de protéger leurs travailleurs en évitant, évaluant et combattant les risques pour leur sécurité et leur santé)[1].

Mais ni l’un ni l’autre des textes législatifs ne semble adapté à l’impact à grande échelle et à la précision affinée des systèmes d’IA sur le lieu de travail, car il a été constaté que les employeurs utilisent l’IA de manière à éroder le droit du travail. Les professeurs de droit Alexander et Tippett appellent cela «Le piratage du droit du travail», décrivant les pratiques dans lesquelles les employeurs utilisent des logiciels pour «Mettre en œuvre des systèmes qui sont en grande partie conformes aux lois existantes mais qui enfreignent les règles juridiques à la marge».

Cependant, la principale lacune législative liée à l’atteinte à l’autonomie (et à la santé à long terme) des travailleurs est que la spécification des risques sur le lieu de travail ou les critères d’évaluation de ceux-ci sont laissés trop vagues. Si le guide pratique de l’Agence européenne pour la sécurité et la santé au travail (OSHA) traite des facteurs psychosociaux, la directive SST ne mentionne aucun risque spécifique. Les termes «stress» et «risques psychosociaux» ne sont pas mentionnés explicitement dans la plupart des législations, ce qui conduit à un manque de clarté ou de consensus sur la terminologie utilisée. Cela laisse aux employeurs la possibilité de choisir les risques à prendre en compte, sans parler de la manière de les mesurer, de les traiter et de les atténuer. Le règlement proposé par la Commission sur l’IA laisse également la définition des risques insuffisamment précisée.

Lacunes et suggestions

Selon la proposition de la Commission, étant donné que l’emploi et la gestion des travailleurs sont inclus dans les huit domaines à haut risque, les systèmes d’IA sur le lieu de travail seraient soumis à des obligations strictes avant de pouvoir être mis sur le marché, y compris des exigences en matière d’évaluation des risques et de systèmes d’atténuation, la qualité des données. des contrôles pour minimiser le risque de discrimination, une journalisation des activités pour assurer la traçabilité et des mesures de transparence, y compris une documentation détaillée et des informations sur les utilisateurs.

Ceci est insuffisant pour protéger adéquatement les travailleurs. Les systèmes d’IA sur le lieu de travail ne seront soumis qu’à des évaluations des risques effectuées par l’employeur ou le fournisseur du système d’IA. Pour renforcer la protection des travailleurs, les partenaires sociaux pourraient se voir attribuer un rôle de supervision des systèmes d’IA au travail. Les travailleurs qui s’opposent aux résultats des systèmes d’IA à haut risque pourraient être protégés contre les mesures disciplinaires imposées par les employeurs. En effet, la participation des travailleurs à la mise en œuvre et à l’évaluation de l’IA pourrait partiellement atténuer les risques psychosociaux des systèmes d’IA réduisant l’autonomie.

Mais outre la question de qui devrait évaluer les risques des systèmes d’IA sur le lieu de travail, il y a le problème quels risques devrait être inclus dans l’évaluation obligatoire. Le règlement proposé par la Commission sur l’IA énumère les exigences relatives aux systèmes de gestion des risques pour les systèmes d’IA à haut risque à l’article 9, avec comme première étape «Identification et analyse des risques connus et prévisibles associé à chaque système d’IA à haut risque » (notre emphase). L’accent mis tout au long de la proposition sur la sécurité, la santé et les droits de l’homme laisse l’interprétation de ces «’Risques connus et prévisibles» trop large, avec trop de marge de manœuvre pour sélectionner certains risques par rapport à d’autres.

Alors que les employeurs tiendront compte des risques immédiats évidents pour la sécurité (par exemple, le risque qu’un robot blesse accidentellement un travailleur avec son bras robotisé), ils pourraient ne pas également tenir compte des risques pour la santé à long terme associés à la privation de l’autonomie des travailleurs. Compte tenu du lien entre la qualité de l’emploi et la santé, les mesures de contrôle de l’emploi sont un indicateur plus réactif pour évaluer si un système d’IA présente un risque pour le bien-être des travailleurs à long terme. La qualité de l’emploi (et l’autonomie en particulier) devrait donc être explicitement incluse comme mesure dans l’évaluation des risques de l’IA sur le lieu de travail, et des processus devraient être mis en place pour atténuer tout impact résiduel de l’IA sur la qualité de l’emploi et le bien-être des travailleurs.

Le besoin de plus d’outils et de conseils sur la gestion des risques psychosociaux est clair, mais pour être contraignant, le meilleur endroit pour aborder cette définition des risques est dans la législation sur la SST elle-même. Le règlement proposé sur l’IA pourrait alors faire référence aux risques psychosociaux tels que définis dans la législation sur la SST à inclure dans les systèmes d’évaluation et d’atténuation des risques requis pour le domaine à haut risque de l’emploi et de la gestion des travailleurs.

Les indicateurs de contrôle de l’emploi d’Eurofound – la capacité de choisir l’ordre des tâches, la vitesse de travail et les méthodes de travail – fournissent un point de départ pour l’élaboration de mesures d’évaluation des risques psychosociaux. Compte tenu de l’impact spécifique de l’IA sur l’automatisation de ces types de décisions, il est important de comprendre comment différentes formes d’autonomie sont liées au bien-être au travail. Toute l’autonomie n’est pas la même et différents aspects du contrôle du travail ont des effets différents sur le bien-être. Les recherches actuelles suggèrent que l’autonomie de planification (choix de l’ordre des tâches) pourrait réduire le stress, tandis que l’apprentissage de l’autonomie (expérimenter des méthodes de travail) pourrait être motivant. Ce n’est qu’en comprenant l’impact distinctif des différents types d’autonomie sur le stress et l’engagement au travail que les risques de l’IA pour le bien-être des travailleurs peuvent être correctement évalués et atténués. Dans un monde du travail de plus en plus numérique, une conception soignée des tâches est plus importante que jamais.

Citation recommandée:

Nurski, L. (2021) «  La gestion algorithmique est le passé, pas l’avenir du travail  », Blog Bruegel, 6 mai

Ce blog a été réalisé dans le cadre du projet «Avenir du travail et croissance inclusive en Europe», avec le soutien financier du Mastercard Center for Inclusive Growth.


Republication et référencement

Bruegel se considère comme un bien public et ne prend aucun point de vue institutionnel. Tout le monde est libre de republier et / ou de citer cet article sans consentement préalable. Veuillez fournir une référence complète, indiquant clairement Bruegel et l’auteur concerné comme source, et inclure un hyperlien bien en vue vers le message original.

Vous pourriez également aimer...