Tribune rédigée en équipe avec Jérémie Giniaux-Kats, Erik Campanini, Mathias Dufour, Florian Forestier, Pauline Maury et Sylvie Teynier, membres du think tank et action lab #Leplusimportant. Les algorithmes, utilisés depuis longtemps pour optimiser le fonctionnement des machines, le sont aussi de plus en plus pour organiser le travail et gérer les ressources humaines.

Le “management algorithmique”, en train de bouleverser le travail et les relations sociales

Cet usage de l’intelligence artificielle (IA) au travail, que l’on appelle aussi “management algorithmique”, est en train de bouleverser le travail et les relations entre employeurs et travailleurs. Il est critique d’en prendre la mesure et d’agir dès maintenant pour l’encadrer. L’IA est par exemple de plus en plus utilisée en matière de recrutement, pour le filtrage des candidatures et l’évaluation des candidats au cours d’entretiens, de tests ou d’analyses automatisées de vidéos. Mais aussi pour la répartition des tâches, le suivi et l’évaluation des performances des travailleurs ou pour décider de leurs promotions ou même de leur départ !
Si ces usages de l’IA au travail se développent aujourd’hui dans les plateformes numériques, bien sûr, mais aussi la distribution, les centres d’appels, les entrepôts, ils vont se généraliser dans tous les secteurs. Selon une étude du cabinet Mercer, en 2020 39 % des services RH utilisent des algorithmes prédictifs, contre 10% en 2016, soit un quadruplement en 4 ans !

L’IA au travail, source d’opportunités et de menaces pour les actifs

Comme toute grande innovation technologique, l’IA au travail est pour les travailleurs source à la fois d’opportunités et de menaces. Côté positif, l’IA a le potentiel de rendre l’activité des travailleurs plus productive et plus facile, moins soumise à l’arbitraire, plus intéressante. Une étude menée auprès de travailleurs japonais montre que ceux qui travaillent avec des algorithmes ont un niveau plus élevé de satisfaction. L’IA peut contribuer à ce que les travailleurs soient traités de façon plus personnalisée par rapport à leurs besoins et aspirations.

A l’inverse, l’IA nourrit aussi pour les travailleurs des risques de surveillance abusive, de discriminations, de perte d’autonomie et de perte d’employabilité. L’exceptionnel développement des capacités de collecte et de traitement des données personnelles sur le travail et la vie des salariés par les machines constitue la toile de fond du développement de l’IA au travail. A l’image des «badges intelligents» qui mesurent la productivité des travailleurs, suivent leurs interactions et analysent leurs conversations ou encore des outils d’IA qui analysent les courriels pour repérer les travailleurs les plus performants ou les comportements déviants.

L’IA porteuse de discriminations accrues

L’IA pourrait aussi être porteuse de discriminations accrues, fussent-elles involontaires mais liées à l’opacité des critères de décision des algorithmes. Amazon a ainsi renoncé à un programme d’algorithme de recrutement, ayant constaté qu’il défavorisait les candidatures féminines pour les emplois tech. Le management algorithmique va conduire un nombre massif d’actifs à voir leur travail influencé voire dirigé par des machines, sans comprendre pourquoi ni comment. Comme le souligne le BIT, la perception d’être un “appendice de la machine” peut conduire à un sentiment d’aliénation.

Même chez les travailleurs qualifiés et les managers, la perspective d’un transfert de capacité de décision à la machine nourrit des craintes de perte d’autonomie. Enfin, le fait pour un travailleur de ne pas maîtriser l’IA engendre un risque de disparités salariales accrues, d’obsolescence de compétences et de moindre employabilité. Ce qui appelle des mesures spécifiques des entreprises et des pouvoirs publics pour former les travailleurs au travail avec l’IA.

Promouvoir un “management algorithmique responsable”

Il faut donc reprendre le contrôle de l’IA au travail, pour exploiter son potentiel tout en garantissant des conditions de travail et d’emploi qui préservent la dignité, la santé, l’égalité de traitement et l’autonomie des travailleurs. Ne craignons d’ailleurs pas le “déterminisme technologique” : rien n’est inexorable et l’histoire a montré combien la régulation par les pouvoirs publics et les pratiques des entreprises peuvent orienter et encadrer les évolutions technologiques. Encore faut-il agir à temps et assez fort. Nous proposons donc plusieurs principes directeurs pour promouvoir un “management algorithmique responsable”.

Pour les entreprises, comme les employeurs publics, l’IA est un moyen de remplir plus efficacement leurs missions. Les contraintes à leur imposer doivent donc être strictement nécessaires, et proportionnées aux buts poursuivis, comme la protection des libertés et droits fondamentaux des personnes. Au nom de la liberté d’entreprendre les employeurs ont ainsi droit à ce que le cadre réglementaire sur l’IA au travail respecte la capacité d’innovation et la propriété intellectuelle et garantisse un jeu concurrentiel équitable et leur sécurité juridique.

A l’inverse, l’ampleur des enjeux leur impose des responsabilités spécifiques : informer les travailleurs sur leurs usages de l’IA pour organiser le travail, en particulier sur les données personnelles collectées, les former aux pratiques de l’IA au travail, entretenir leur employabilité, faire de l’IA et de ses usages un thème de dialogue social et se prêter à des audits externes pour vérifier le respect de ces points et des droits des travailleurs. Pour prévenir les risques posés par l’IA au travail, nous proposons d’affirmer des droits spécifiques pour les travailleurs, relatifs à leur droit à la dignité (droit à la vie privée, droit d’information et de consentement, droit aux interactions humaines), leur droit à l’égalité de traitement (droit à la non-discrimination), leur droit à la santé et leur droit à l’autonomie (droit à la compréhension ou à l’explicabilité des algorithmes, droit à la décision humaine -vs. décision par algorithme pour ce qui les concerne-, droit à la contestation, droit à la formation à l’usage de l’IA et droit de négociation).

Un texte sur la régulation de l’IA est en cours de discussion au sein de l’Union européenne. Après avoir été à l’avant-garde sur la protection des données, la France a l’occasion, dans le cadre de sa présidence de l’UE, de l’être sur la promotion d’une IA responsable au travail, conciliant la liberté d’innovation et la promotion des droits des travailleurs.




Article précédentL”écologie et les écologistes : ce qui se dit de mieux
Article suivantChefs de projet 2.0 : s’appuyer sur la technologie pour booster la collaboration
Mathias Dufour, Président de #Leplusimportant
Fondateur et président du think tank et action lab #Leplusimportant, qui agit pour relever les défis sociaux de la transition écologique et numérique. Depuis 2017 #Leplusimportant met en action une communauté engagée de plus de 250 experts et professionnels de tous âges et de tous horizons. Le think tank élabore et partage des propositions concrètes - plus de 300 à date - avec les décideurs publics et privés. Il travaille notamment sur l'adaptation de notre modèle social et du droit du travail à la transition numérique, et a inspiré à ce sujet plusieurs textes législatifs et réglementaires. L'action lab accompagne pro bono des acteurs de l’ESS - ayant plus de 100.000 bénéficiaires - pour démultiplier leur impact social. Face au défi de l'insécurité économique, #Leplusimportant entend redonner du pouvoir d’agir à chacun et promouvoir une société plus inclusive. Mathias Dufour, haut fonctionnaire, ancien élève de l'ENS, d’HEC, de l'ENA et de Harvard, a commencé sa carrière de fonctionnaire au Ministère de l’Economie et des Finances, puis a rejoint le Ministère de la Santé où il a été directeur de cabinet adjoint du ministre. Pendant 10 ans consultant en stratégie dans un cabinet international, jusqu'en 2020, il se consacre depuis 2017 bénévolement au développement de #Leplusimportant.