Et si le vrai bouleversement de l’intelligence artificielle n’était pas technologique, mais politique ? En s’immisçant dans les mécanismes décisionnels de l’entreprise, l’IA reconfigure les équilibres de pouvoir, bouscule les légitimités établies et redessine les territoires d’influence. Derrière l’apparente neutralité des algorithmes se joue une redistribution silencieuse des cartes : qui conserve son autorité ? Qui l’accroît ? Quelles nouvelles figures émergent dans cette gouvernance augmentée ?
Aux côtés de Romain Zerbib, enseignant-chercheur à l’ICD Business School, chercheur associé à la chaire ESSEC de l’Innovation Managériale et de l’Excellence Opérationnelle (IMEO), et directeur de la publication Management & Data Science, explorons cette mutation structurelle. Comment le management peut-il naviguer dans cette reconfiguration des rapports de force ? Et pourquoi repenser nos modèles de gouvernance devient-il un enjeu stratégique ?
L’IA remodèle les processus décisionnels. Quels signes concrets observez-vous ?
Ce que l’on constate aujourd’hui dans de nombreuses entreprises, ce n’est pas une révolution saillante, mais une série de micro-déplacements dans les circuits de décision. L’IA, en introduisant des logiques algorithmiques dans des arbitrages jusqu’alors humains, modifie la manière dont l’information circule, dont les priorités sont établies, et surtout, dont la légitimité des décisions est perçue.
Cette dynamique recompose en profondeur les équilibres internes : ce ne sont plus seulement les niveaux hiérarchiques ou les années d’expérience qui pèsent, mais la capacité à comprendre ou à manier les outils IA, et les nouvelles dynamiques qu’ils sous-tendent.
L’IA redistribue-t-elle ou concentre-t-elle le pouvoir ? Qui en sort renforcé, qui est fragilisé ?
Nous sommes face à un paradoxe : l’IA élargit théoriquement l’accès à l’information, mais dans les faits, elle concentre le pouvoir entre les mains de ceux capables de la transformer en action, souvent les experts data et leurs sponsors stratégiques. Ce n’est pas une confiscation volontaire, mais le fruit d’une asymétrie technique. Les managers intermédiaires, s’ils ne sont pas formés ou associés à ces dynamiques, peuvent perdre en influence.
Ce qui se joue, c’est donc moins une redistribution qu’un déplacement des repères de pouvoir. Un déplacement qui reste, à ce stade, largement instable et contextuel.
Comment le rôle des managers évolue-t-il avec l’IA ?
Le rôle du manager est de plus en plus celui d’un interprète. Il doit relier les recommandations algorithmiques aux réalités de terrain, tout en maintenant la cohésion d’équipe et la capacité à décider dans l’incertitude.
Ce rôle évolue vers quelque chose de plus transversal, plus réflexif : comprendre sans forcément maîtriser, expliciter sans sur-simplifier, et surtout, garder une posture de présence là où les outils tendent à automatiser. Ce n’est pas un déclassement du manager, c’est une mue de ses fonctions profondes.
Qui est responsable quand une décision issue d’une IA produit un résultat négatif ?
Nous entrons dans une période où la responsabilité devient moins lisible. L’illusion d’objectivité algorithmique peut masquer des choix de paramétrage, de données, ou d’usage. Or ces choix ont des auteurs, même s’ils sont dispersés dans l’organisation.
Les entreprises commencent à s’outiller (audits, comités IA, documentation des décisions), mais ces dispositifs restent embryonnaires. Le vrai enjeu n’est pas tant de désigner un coupable que de redéfinir les conditions de la responsabilité dans un système hybride, où l’humain délègue parfois à l’IA sans pleinement saisir la nature des tâches confiées ni leurs implications.
Quels sont, selon vous, les principaux points de friction ?
La friction majeure, c’est l’écart entre l’autorité technique et la légitimité perçue. Quand une décision IA contredit l’intuition métier ou l’expérience humaine, elle peut générer du rejet. Surtout si celle-ci reste opaque.
Un autre point de tension réside dans la temporalité : l’IA accélère les décisions, tandis que l’humain a besoin de temps pour en saisir les enjeux, les formuler, les faire accepter. Ces deux vitesses se télescopent. Et c’est à ce croisement que naissent les résistances, parfois refoulées, mais puissantes.
Avez-vous observé des cas où l’IA a fragilisé la confiance au sein des équipes ?
Oui, et souvent dans des contextes où la dimension relationnelle a été sous-estimée. Une IA peut être performante mais déstabilisante si elle n’est ni expliquée ni appropriée. Ce n’est pas l’outil en soi qui fragilise la confiance, mais le sentiment qu’il échappe au collectif. Quand l’IA devient un tiers invisible, mais normatif, elle peut susciter des effets de désengagement.
C’est ce qui s’est passé dans une banque où un algorithme a été mis en place pour répartir les portefeuilles clients entre les conseillers, selon des critères de rentabilité et de charge de travail. Très vite, un malaise est apparu : les conseillers ne comprenaient pas comment les décisions étaient prises, ni pourquoi certains choix leur semblaient injustes. Ils ont perdu leurs repères, eu le sentiment que tout devenait arbitraire, et la confiance s’est érodée. Cela montre que la confiance ne repose pas seulement sur l’efficacité d’un outil, mais sur notre capacité à comprendre, à discuter et à contester ce qui nous impacte.
Quelles stratégies les organisations peuvent-elles mettre en place pour accompagner ces mutations ?
D’abord, éviter de voir l’IA comme un simple outil de productivité. C’est une infrastructure politique autant que technologique. Il faut donc cartographier les zones d’impact, pas seulement techniques, mais aussi relationnelles.
Ensuite, créer des interfaces humaines : des rôles de médiation entre fonctions métiers et experts IA, des ateliers partagés, des espaces de dialogue sur les décisions algorithmiques. Enfin, favoriser une culture où la compréhension compte autant que la performance. C’est le prix à payer pour éviter la rupture entre ceux qui savent et ceux qui subissent.
Et plus largement, quel rôle la fonction RH peut-elle jouer ?
La fonction RH peut devenir un acteur stratégique si elle s’empare pleinement de la question de l’accessibilité. Il ne s’agit pas seulement de rendre les outils compréhensibles, mais aussi d’éclairer leurs usages et les logiques qui les sous-tendent. Elle peut structurer la montée en compétences dans la durée, anticiper les désajustements dans les parcours professionnels, et garantir une équité dans la capacité à interagir avec l’IA. En d’autres termes, elle ne doit pas seulement gérer les effets de l’IA, mais prendre part à sa gouvernance humaine.
Comment l’IA pourrait-elle, au contraire, devenir un levier d’empowerment ?
Bien pensée, l’IA peut redonner du pouvoir à celles et ceux qui agissent. Elle peut renforcer la capacité à décider localement, rendre visibles des signaux faibles, et alléger les tâches répétitives. Mais cela suppose des outils non seulement performants, mais aussi accessibles, transparents et ouverts à la critique. L’empowerment — cette capacité à agir de manière autonome, éclairée et responsable — naît de la possibilité de comprendre et de contester, pas simplement d’utiliser. C’est une IA appropriée, et non imposée, qui produit de la capacité d’agir.
Quelles premières étapes pour favoriser cette transition ?
Je recommande d’identifier les zones sensibles, là où le pouvoir se déplace et où les tensions montent, lancer des projets intermétiers autour de cas d’usage réels, et installer des formats de réflexivité : retours d’expérience, bilans partagés, comités mixtes.
Il ne s’agit pas de ralentir l’innovation, mais de l’aligner sur des rythmes humains et organisationnels soutenables. L’IA ne se pilote pas seulement par les indicateurs, mais par la richesse et la qualité du dialogue qu’elle suscite, ou qu’elle empêche, au sein des organisations.
À terme, doit-on repenser l’autorité et le leadership à l’ère de l’IA ?
Oui, et ce mouvement est déjà engagé. Le leadership ne peut plus reposer uniquement sur la maîtrise des règles ou des processus. Il doit désormais intégrer la capacité à faire coopérer intelligemment humains et systèmes.
Cela implique un nouveau rapport au pouvoir : moins directif, plus orchestrateur ; moins vertical, plus capacitant. Le leader ne sait pas toujours mieux, mais il doit savoir mieux articuler. C’est cette capacité d’assemblage, d’interconnexion, qui fera la différence dans les environnements augmentés par l’IA.

Cette étude pourrait vous intéresser
Faites le point sur les grandes tendances en termes d’IA dans le monde des SIRH et identifiez les solutions innovantes par domaine RH.