Recrutement, surveillance, biais : l’IA au travail dans le viseur de l’émission Cash Investigation

Rédigé le 11/04/2025

Ce jeudi 10 avril sur France 2, Cash Investigation s'est intéressé à l’impact de l’intelligence artificielle sur le monde du travail.

Pour voir ou revoir ce reportage cliquez ici 

Dans sa nouvelle enquête, le journaliste François Cardona met en lumière les avantages et les dérives de l'IA en entreprise. En première ligne de ce bouleversement technologique ? Les ressources humaines : du recrutement de candidats sans recruteur au contrôle des salariés.

Lors du Sommet pour l’action sur l’intelligence artificielle en février 2025, le président Emmanuel Macron l’a assuré : l’intelligence artificielle va nous permettre « de mieux travailler ». D’après le numéro de Cash Investigation*, diffusé ce jeudi 10 avril, les métiers des ressources humaines devraient être parmi les plus impactés. Concrètement ? Le candidat n’aurait plus face à lui un recruteur en chair et en os, mais un écran avec un personnage numérique fictif, capable de poser des questions de recrutement traditionnelles. Dans le même temps, l’outil analyserait son comportement sous toutes les coutures, passant en grande partie par le non-verbal et le para-verbal (mouvements corporels, intonation dans la voix, le débit, etc.)

Interdiction d’analyser les émotions

À l’issue de cet entretien 2.0, les résultats seraient aussitôt disponibles, sous forme de synthèse (textes, chiffres et graphiques). Le candidat obtiendrait une note globale en fonction du poste visé ainsi que des notes plus spécifiques liées à des compétences. Le candidat serait apte, par exemple, à endosser le rôle d’hôte d’accueil à 75 %, tandis qu’il aurait 64 % de capacité managériale, 80 % d’engagement, 85 % de travail en équipe, et encore 69 % de communication. Des outils, comme sweeeft.ai, sont en mesure de dresser un bilan des états émotionnels positifs (enthousiasme, réactivité) ou négatifs (anxiété, agitation) du candidat. Ce dernier peut, néanmoins, être déstabilisé face à des questions posées par un robot, autrement dit privé d’interactions humaines spontanées, de convivialité, etc. Ces échanges informels, en début ou fin d’entretien, participent aussi à révéler la personnalité d’un candidat et créé de la connivence avec un recruteur. Ce sont ces petits détails qui peuvent aider le recruteur à trancher en cas d’hésitation.

Cependant, depuis février 2025, l’IA Act a interdit « l’utilisation de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail ». Ce procédé représente, en effet, un « risque inacceptable » : la « fiabilité de l’IA reste limitée » et « manque encore de précision ». De plus, « l’expression des émotions varie considérablement d’une culture et d’une situation à l’autre ». Ressentir de l’anxiété en entretien est normal. Cela ne signifie pas pour autant que le candidat est fondamentalement anxieux. L’autre risque serait de prendre des décisions biaisées« L’IA peut présenter des biais cognitifs, et donc être susceptible de recruter plutôt tel profil que tel autre. Pour des recrutements de cadres dirigeants, par exemple, si l’IA a été entraînée sur des CV d’hommes, elle aura tendance à recruter des hommes », explique Thomas Dautieu, directeur juridique de la commission nationale informatique & libertés (CNIL) dans Cash Investigation.

Une surveillance accrue

L’IA peut également se transformer en outil de surveillance qui ne dit pas son nom. Certaines banques déploient, par exemple, des logiciels en mesure d’analyser les conversations de conseillers avec leurs clients (elles s’assurent que les salariés suivent la trame imposée : présentation, reprise du nom du client, remerciements, etc.). Elles notent les employés pour les aider a priori à s’améliorer. Mais, finalement, ces notations deviennent un classement entre collaborateurs. « L’outil avait été présenté comme un moyen de nous aider dans notre quotidien », témoigne anonymement un salarié qui a vite déchanté.

Cela pose un véritable enjeu de transparence, selon Thomas Dautieu, directeur juridique de la CNIL : « Il faut que le salarié sache que lorsqu’il utilise sa ligne téléphonique ou d’autres moyens de communication, il y a une analyse des échanges faite par l’IA. Il est interdit de faire cela à l’insu des personnes. » Ensuite, cette pratique de surveillance ne peut être systématique, sinon elle finit par être considérée comme excessive.

Que risquent les entreprises ?

Entre potentielles discriminations lors de processus de recrutement et surveillance exagérée des salariés dans leur quotidien professionnel, les recruteurs et les managers ont un véritable devoir de vigilance. Les candidats, eux, doivent être informés si l’IA est à l’origine d’une décision. Car, ils disposent, en effet, du droit de demander les critères de sélection et de contester la décision d’une entreprise. Ils peuvent demander une réexamination humaine. L’entreprise qui outrepasse la loi s’expose, elle, à des sanctions pouvant atteindre les 35 millions d’euros d’amende (n’excédant pas les 7 % de son chiffre d’affaires).

À noter que pour la première fois, depuis septembre 2024, il existe un ministère dédié à l’intelligence artificielle et au numérique. Sa ministre déléguée, Clara Chappaz, se veut rassurante : « Cette technologie comporte énormément d’avantages, mais comme toutes grandes ruptures technologiques, il y a un certain nombre de questions auxquelles il faut répondre« , comme le nouveau rôle des acteurs en entreprise dont les tâches sont désormais réalisées plus rapidement par ce nouvel outil. « Cette technologie engendre des transformations qu’il faut accompagner, en formant et en redirigeant » les salariés, termine-t-elle.

*L’intégralité de ce Cash Investigation « L’IA a-t-elle pris le contrôle sur notre quotidien ? », produit par Premières Lignes et présentée par Elise Lucet, a eté diffusé jeudi 10 avril 2025 à 21h10 sur France 2.

Source Courrier Cadres - Par Léa Lucas