Les points essentiels à retenir de cet article

L’intelligence artificielle (IA) s’est imposée depuis 2022 comme l’une des innovations les plus transformatrices de l’histoire humaine.

Elle rédige, corrige, classe, priorise, surveille, propose, évalue. Elle devient ce collègue invisible, toujours là et jamais fatigué, qui travaille plus vite que tout le monde, sans pause, sans doutes, sans peur.

Récemment, des innovation comme Openclaw ou Claude Cowork nous ont même laissé entrevoir ce à quoi pourrait ressembler le travail demain : une « simple » orchestration d’agents autonomes qui abattent en une journée le travail de 20 personnes sur une semaine.

Mais derrière cette révolution se cache une réalité émergente : l’impact potentiel de l’IA sur la santé mentale au travail.

Dans de nombreuses organisations, l’intégration exponentielle de ces outils va en effet à coup sur entraîner des tensions, de la confusion, de l’insécurité et un sentiment diffus, voire bien réel de perte de contrôle. L’IA agit en effet comme un multiplicateur de transformations qui sont elle-même probablement trop rapides pour que les humains puissent les absorber sereinement.

Cela soulève donc une question centrale : l’IA promet-elle d’être LE nouveau facteur de risque psychosocial (RPS) des années qui viennent ? Et si oui, comment s’y préparer au mieux ?

Les RPS : un cadre pertinent pour appréhender l’impact de l’IA sur l’humain au travail

Rappelons-le, les risques psychosociaux sont définis comme les risques pour la santé mentale, physique et sociale des individus en lien avec leurs conditions et situations de travail. En France, depuis 2011 et le fameux rapport Gollac (commandé notamment suite à la douloureuse affaire France Telecom), l’INRS et l’ANACT regroupent les facteurs de risque psychosociaux en six grandes familles :
  • L’exigence du travail (intensité et temps en particulier)
  • Les exigences émotionnelles
  • Le niveau d’autonomie
  • La mauvaise qualité des relations au travail
  • Les conflits de valeurs
  • L’insécurité socio‑économique

Or, si on regarde de près les choses, l’IA a le pouvoir d’agir comme un accélérateur sur presque tous ces facteurs de risques :

  • Sur l’exigence du travail : l’IA donne l’impression que tout va aller toujours plus vite et qu’il va falloir suivre le rythme effréné et infatigable de la machine.
  • Les exigences émotionnelles : d’une part l’incertitude autour de l’avenir érode la confiance et d’autre part, ceux qui devront « collaborer » avec l’IA plutôt qu’avec des collègues humains pourront assez rapidement s’en trouver déstabilisés, voire isolés.
  • Le manque d’autonomie : les algorithmes encadrent, orientent, recommandent de mieux en mieux. Serons-nous toujours demain à la manoeuvre ?
  • Les relations au travail : interfaces et automatisations remplaceront-ils progressivement les interactions humaines ?.
  • Les conflits de valeurs : quand l’IA produit sans effort ce que je mettais des heures à formaliser, que vaut encore mon expertise ? Et puis, est-ce que je trouverai du sens à travailler dans une entreprise qui se repose sur la machine plutôt que sur l’humain ?
  • L’insécurité socio‑économique : et si, finalement, même les emplois les mieux “protégés” n’étaient plus à l’abri ?
Soyons clairs, l’IA ne crée pas les RPS. Ils existaient bien avant son avènement. En revanche, il semblerait bien qu’elle puisse redéfinir leur nature,  l’échelle et la vitesse de leur apparition.

Les RPS liés à l’IA : sommes-nous tous égaux ?

À mesure que l’intelligence artificielle s’installe dans les organisations, une fracture discrète mais bien réelle apparaît.
Contrairement aux précédentes révolutions technologiques, où la pénibilité concernait surtout les ouvriers ou les métiers répétitifs, l’IA redessine le paysage social du risque psychologique.
Cette fois, personne n’est totalement épargné mais nous ne sommes clairement pas tous égaux face à ses effets.
  • Dans certains secteurs, l’IA agit et agira probablement comme comme un amortisseur : elle libèrera du temps, elle réduira la charge en prenant pour elle les taches répétitives, et sécurisera les opérations.
  • Dans d’autres, elle créera une pression inédite, souvent plus psychique que technique.
Les métiers administratifs, les fonctions support, les services de production documentaire sont en première ligne : leur activité est précisément celle que l’IA sait le mieux prendre en charge avec, dès aujourd’hui, un haut niveau de qualité.
Mais ce sont les cadres supérieurs, les experts, les consultants, les juristes ou les managers (les « cols blancs ») qui expriment aujourd’hui les inquiétudes les plus profondes. Leur capital symbolique était fondé sur l’analyse, la formulation, la décision… trois compétences dont l’IA s’empare à grande vitesse.
À l’inverse, certains salariés paradoxalement considérés comme moins qualifiés se sentent plus sereins : habitués depuis des années à jongler avec de nouvelles consignes, de nouveaux outils, de nouvelles normes, ils vivent cette transformation juste comme une évolution de plus.
Cette différence d’exposition, de maturité, de culture numérique, mais aussi d’imaginaire professionnel, crée une géographie inédite du risque psychosocial : ceux qui maîtrisent l’IA ne sont pas forcément ceux qui la vivent le mieux, et ceux qui devraient théoriquement en tirer bénéfice en sont parfois les plus déstabilisés.
L’inégalité ne tient donc pas à la technologie elle‑même, mais à la manière dont elle vient heurter les identités professionnelles, les valeurs et les sécurités acquises.
Une mutation silencieuse, mais qui redessine en profondeur les vulnérabilités psychosociales liées au travail.

Que peuvent faire les entreprises dès maintenant ?

Face à la rapidité avec laquelle l’IA s’installe dans les pratiques professionnelles, les entreprises n’ont probablement plus le luxe d’attendre.
  • Une première étape pertinente consiste donc à anticiper ou identifier les impacts humains de ces nouveaux outils à travers un diagnostic RPS structuré, lequel doit permettre permet de comprendre comment l’IA modifie réellement le travail : intensification, perte d’autonomie, surcharge cognitive, insécurité professionnelle. Cet état des lieux doit être complété par une cartographie précise des usages de l’IA  officiellement adoptés ou informels (« shadow AI ») afin d’identifier où se situent les vulnérabilités.
  • À partir de ces constats, elles peuvent élaborer de premières stratégies de prévention primaire et secondaire, visant à agir avant l’apparition des premiers dommages psychologiques. Cela passe notamment par la sensibilisation/formation des managers, à la fois à une IA “responsable” et à la compréhension fine des RPS émergents.
  • Enfin, une gouvernance IA claire, transparente et encadrée est indispensable : définir ce que l’IA peut faire, ce qu’elle ne doit pas faire, comment les décisions sont supervisées, et comment préserver le rôle central du jugement humain. Autant d’actions concrètes qui permettent d’anticiper les risques et de faire de l’IA une opportunité maîtrisée plutôt qu’un facteur de fragilisation.

Conclusion

C’est devenu une lapalissade, l’IA transforme le travail à une vitesse inédite, révélant autant les fragilités des organisations que les anxiétés individuelles dans un contexte déjà marqué par une instabilité réelle. Mais cette révolution n’a pas à devenir une source de risques psychosociaux majeurs. Ce n’est pas une fatalité. Les entreprises qui réussiront à préserver leur capital humain seront celles qui feront un choix clair : accompagner l’innovation sans sacrifier la santé psychologique. Cela implique d’écouter les signaux faibles, de reconnaître les impacts potentiels, de sécuriser les usages et de réaffirmer le rôle central du jugement humain.
Au fond, l’IA n’est pas une menace : elle est un test. Celui de notre capacité collective à construire un futur du travail à la fois performant, éthique ou l’humain aura (toujours) sa juste place.

Leave a Reply