IA générative : quand la technologie révèle les fragilités de nos organisations

Rédigé le 24/10/2025

Elle fascine, inquiète ou lasse. L’IA générative s’est invitée dans les discours et les comités de transformation. Mais derrière la frénésie des outils, que change-t-elle réellement au travail ? Et surtout, que dit-elle de nous, de notre capacité à inclure, à apprendre, à gouverner ce qui vient ? Il est temps de quitter la fascination pour construire une stratégie.

L’irruption de l’intelligence artificielle générative n’est pas un épisode technologique. C’est un tournant systémique. Elle ne supprime pas le travail. Elle le reconfigure. Elle le fragmente, le déstabilise, le déplace. Mais surtout, elle agit comme un révélateur. Elle fait remonter à la surface des questions que l’on avait cessé de poser : à quoi sert encore le travail ? À qui ? À quel prix ?

Les chiffres le confirment : dans les métiers les plus exposés à l’IA (comme le support client ou le développement logiciel), l’emploi des jeunes travailleurs chute de 13 à 20 %, tandis que celui des profils plus expérimentés progresse. Pourquoi ? Parce que l’IA excelle dans l’automatisation du savoir formel — documenté, standardisé, facilement remplaçable. Le savoir d’entrée. Mais elle échoue sur ce qui fait la profondeur du métier : les réflexes acquis, la transversalité, la lecture fine des situations, l’expérience vécue. Bref, ce qui ne s’écrit pas.

Au-delà des emplois qui disparaissent

Résultat : ce ne sont pas seulement des emplois qui disparaissent, ce sont des trajectoires qui ne commencent pas. Et c’est là que se trouve le véritable danger. Exclure les jeunes de l’entreprise n’est pas seulement injuste : c’est un non-sens stratégique. Car sans transmission, pas d’apprentissage collectif. Sans renouvellement, pas d’évolution. On fragilise la capacité future de l’organisation à se transformer.

Mais l’aveuglement va plus loin. Il ne touche pas seulement l’emploi, il traverse aussi les stratégies d’entreprise. L’adoption de l’IA générative est massive. Mais ses impacts sont, pour l’instant, marginaux. Selon le MIT, plus de 80 % des entreprises ont expérimenté des outils comme ChatGPT. Mais moins de 5 % des projets produisent un vrai retour sur investissement. Ce paradoxe a un nom : le GenAI Divide. L’écart entre l’usage et la transformation.

Pourquoi cet échec ? Parce que l’IA n’apprend pas

L’IA ne retient ni les contextes ni les feedbacks. Et elle est le miroir d’un autre défaut : les organisations, elles non plus, n’apprennent pas. Elles transposent des outils, mais rarement des processus. Elles testent, mais n’outillent ni les usages ni les collectifs.

Pire : elles investissent là où l’effet vitrine est maximal — communication, marketing, innovation — mais négligent les zones où l’impact serait le plus tangible : fonctions support, achats, service client, back-office. Là où les marges se jouent. Là où l’IA peut alléger, accélérer, fiabiliser. Parce que ces fonctions sont externalisées ou jugées secondaires, elles échappent aux stratégies de transformation. Le bruit prime sur la valeur.

L’apprentissage collectif, véritable enjeu

Face à cela, la question à poser n’est plus « quelle IA faut-il adopter ? » mais « quelle capacité d’apprentissage collectif voulons-nous construire ? » Ce chantier est immense. Et il est politique au sens fort. Il suppose de redéfinir qui décide, qui accompagne, qui arbitre. Il appelle des formes de médiation sociale inédites — des lieux hybrides entre technique, droit et travail réel.

Car la technologie ne fait pas société. Ce sont les choix, les cadres, les délibérations qui l’entourent qui le peuvent. Et ces médiateurs ne sont pas forcément dans la tech. Ce sont les représentants du personnel, les responsables de la transformation, les formateurs, les juristes d’entreprise, les managers de proximité. Tous ceux qui traduisent les enjeux en pratiques, qui rendent les transitions négociables, compréhensibles, adaptables.

On voit émerger aujourd’hui des pratiques exemplaires, qui incarnent ce tournant. La CFE-CGC, par exemple, a lancé plusieurs initiatives pour permettre une appropriation concrète, structurée, et accessible de l’IA générative au sein des instances représentatives. Le programme DIAL IA vise à créer un dialogue outillé entre salariés et directions sur l’usage de l’IA. SoquoIA explore les conditions d’une souveraineté technologique appliquée au monde du travail. Un NotebookLM entièrement dédié aux CSE — et librement accessible — a été mis en ligne, compilant sources juridiques, bonnes pratiques, exemples d’accords ou d’analyses d’impact.

Subir ou gouverner

Ce ne sont pas de simples initiatives. Ce sont des jalons. Car elles traduisent une conviction essentielle : l’IA ne sera jamais un levier de transformation sociale si elle n’est pas, d’abord, un objet de délibération sociale. C’est peut-être là que l’Europe a une carte à jouer. Moins rapide sur la technologie, mais plus claire sur la régulation. Avec le RGPD pour les données, l’AI Act pour les modèles, elle dessine une voie : celle de la confiance. Cette confiance ne se décrète pas. Elle se construit, par des règles mais aussi par des pratiques. Elle suppose que le pouvoir algorithmique soit encadré dès le départ, pas a posteriori.

À nous de saisir ce moment. Car nous sommes face à une bifurcation silencieuse. Deux attitudes sont possibles : subir… ou gouverner.

Source Courrier Cadres -  Thierry Taboy