Les points essentiels à retenir de cet article
-
Accélérateur de RPS : L’IA ne crée pas de nouveaux risques mais intensifie les 6 facteurs de RPS issus du rapport Gollac.
-
Les « Cols Blancs » au coeur de la tourmente : Les cadres et experts sont probablement les plus vulnérables car l’IA automatise leur cœur de métier (analyse, décision) et les place dans une position de vulnérabilité inédite.
-
Crise Identitaire : Le risque majeur réside dans la perte de contrôle et la dévalorisation de l’expertise humaine face à la machine.
-
Urgence RH : Nécessité de diagnostics RPS, de formation managériale et d’une gouvernance réaffirmant le rôle de l’humain.
L’intelligence artificielle (IA) s’est imposée depuis 2022 comme l’une des innovations les plus transformatrices de l’histoire humaine.
Elle rédige, corrige, classe, priorise, surveille, propose, évalue. Elle devient ce collègue invisible, toujours là et jamais fatigué, qui travaille plus vite que tout le monde, sans pause, sans doutes, sans peur.
Récemment, des innovation comme Openclaw ou Claude Cowork nous ont même laissé entrevoir ce à quoi pourrait ressembler le travail demain : une « simple » orchestration d’agents autonomes qui abattent en une journée le travail de 20 personnes sur une semaine.
Mais derrière cette révolution se cache une réalité émergente : l’impact potentiel de l’IA sur la santé mentale au travail.
Dans de nombreuses organisations, l’intégration exponentielle de ces outils va en effet à coup sur entraîner des tensions, de la confusion, de l’insécurité et un sentiment diffus, voire bien réel de perte de contrôle. L’IA agit en effet comme un multiplicateur de transformations qui sont elle-même probablement trop rapides pour que les humains puissent les absorber sereinement.
Les RPS : un cadre pertinent pour appréhender l’impact de l’IA sur l’humain au travail
- L’exigence du travail (intensité et temps en particulier)
- Les exigences émotionnelles
- Le niveau d’autonomie
- La mauvaise qualité des relations au travail
- Les conflits de valeurs
- L’insécurité socio‑économique
Or, si on regarde de près les choses, l’IA a le pouvoir d’agir comme un accélérateur sur presque tous ces facteurs de risques :
- Sur l’exigence du travail : l’IA donne l’impression que tout va aller toujours plus vite et qu’il va falloir suivre le rythme effréné et infatigable de la machine.
- Les exigences émotionnelles : d’une part l’incertitude autour de l’avenir érode la confiance et d’autre part, ceux qui devront « collaborer » avec l’IA plutôt qu’avec des collègues humains pourront assez rapidement s’en trouver déstabilisés, voire isolés.
- Le manque d’autonomie : les algorithmes encadrent, orientent, recommandent de mieux en mieux. Serons-nous toujours demain à la manoeuvre ?
- Les relations au travail : interfaces et automatisations remplaceront-ils progressivement les interactions humaines ?.
- Les conflits de valeurs : quand l’IA produit sans effort ce que je mettais des heures à formaliser, que vaut encore mon expertise ? Et puis, est-ce que je trouverai du sens à travailler dans une entreprise qui se repose sur la machine plutôt que sur l’humain ?
- L’insécurité socio‑économique : et si, finalement, même les emplois les mieux “protégés” n’étaient plus à l’abri ?
Soyons clairs, l’IA ne crée pas les RPS. Ils existaient bien avant son avènement. En revanche, il semblerait bien qu’elle puisse redéfinir leur nature, l’échelle et la vitesse de leur apparition.
Les RPS liés à l’IA : sommes-nous tous égaux ?
- Dans certains secteurs, l’IA agit et agira probablement comme comme un amortisseur : elle libèrera du temps, elle réduira la charge en prenant pour elle les taches répétitives, et sécurisera les opérations.
- Dans d’autres, elle créera une pression inédite, souvent plus psychique que technique.
Cette différence d’exposition, de maturité, de culture numérique, mais aussi d’imaginaire professionnel, crée une géographie inédite du risque psychosocial : ceux qui maîtrisent l’IA ne sont pas forcément ceux qui la vivent le mieux, et ceux qui devraient théoriquement en tirer bénéfice en sont parfois les plus déstabilisés.
Que peuvent faire les entreprises dès maintenant ?
- Une première étape pertinente consiste donc à anticiper ou identifier les impacts humains de ces nouveaux outils à travers un diagnostic RPS structuré, lequel doit permettre permet de comprendre comment l’IA modifie réellement le travail : intensification, perte d’autonomie, surcharge cognitive, insécurité professionnelle. Cet état des lieux doit être complété par une cartographie précise des usages de l’IA officiellement adoptés ou informels (« shadow AI ») afin d’identifier où se situent les vulnérabilités.
- À partir de ces constats, elles peuvent élaborer de premières stratégies de prévention primaire et secondaire, visant à agir avant l’apparition des premiers dommages psychologiques. Cela passe notamment par la sensibilisation/formation des managers, à la fois à une IA “responsable” et à la compréhension fine des RPS émergents.
- Enfin, une gouvernance IA claire, transparente et encadrée est indispensable : définir ce que l’IA peut faire, ce qu’elle ne doit pas faire, comment les décisions sont supervisées, et comment préserver le rôle central du jugement humain. Autant d’actions concrètes qui permettent d’anticiper les risques et de faire de l’IA une opportunité maîtrisée plutôt qu’un facteur de fragilisation.
