Temps de lecture estimé : 4 minutes
TRIBUNE. Nous sommes à l’aube d’une ère marquée par l’intelligence artificielle, mais l’un des principaux obstacles à son adoption significative n’est pas la technologie. C’est le temps. Plus précisément, c’est le manque de temps structuré et protégé pendant les heures de travail pour que les employés apprennent réellement à utiliser et à s’approprier l’IA de manière à améliorer leurs performances, à générer de la valeur et à réduire les inégalités. Par Steve Bennetts (employee experience) et Lisa Le Derff (EX Advisor), de Qualtrics.
Les conversations avec les DRH révèlent une inquiétude commune et pressante : leurs équipes internes sont déjà plus en retard que prévu dans leur transition vers l’IA. Ces dirigeants reconnaissent qu’ils doivent passer d’une stratégie d’encouragement passif à une stratégie de conception active. Ils doivent consacrer du temps à la formation continue pendant la journée de travail, et ne pas simplement laisser cette responsabilité à la discrétion de chaque employé.
En entreprise, les responsables RH sont appelés à accompagner leurs organisations dans une transformation numérique rapide. Mais s’ils ne s’attaquent pas à ce que nous appelons le « paradoxe du temps », qui consiste à attendre des employés déjà très occupés qu’ils « trouvent le temps » de se former à l’IA en dehors de leurs responsabilités quotidiennes, le risque est de compromettre le succès même de cette transformation.
L’adoption de l’IA ne fonctionnera pas si elle reste facultative
Trop souvent, le discours des dirigeants est le suivant : « Allez apprendre l’IA. Vous avez notre bénédiction. » Mais quand ? Entre deux réunions consécutives ? Après une journée de travail de 12 heures ? Pendant leur pause déjeuner ?
Soyons clairs : demander aux gens de se familiariser avec l’IA pendant leur temps libre, en particulier dans des lieux de travail déjà confrontés à l’épuisement professionnel et à la pression de la productivité, est une stratégie qui ne profitera qu’à une poignée de privilégiés.
Les travailleurs du savoir qui disposent de temps libre, n’ont pas de responsabilités familiales et ont accès à l’éducation peuvent très bien s’en sortir. Mais la grande majorité, comme le personnel de première ligne, les travailleurs à temps partiel, les employés travaillant par roulement, les aidants et les personnes en situation de handicap n’y parviendront pas.
C’est ainsi que nous créons involontairement une nouvelle fracture numérique au sein de la population active.
Sans investissement structurel en temps, nous laissons des personnes de côté
L’approche actuelle est trop réactive. Les entreprises introduisent des outils d’IA, puis attendent des employés qu’ils suivent le rythme. Où est le parcours d’apprentissage structuré ? Où sont les plages horaires claires et protégées pour explorer ces outils, les tester, comprendre leurs implications et bénéficier d’un accompagnement ?
Lorsque la formation est laissée à la discrétion de chacun, seuls ceux qui ont du temps libre peuvent y participer, ce qui crée un fossé en matière de compétences selon des critères socio-économiques, de genre et démographiques. L’adoption de l’IA devient non seulement un défi technologique, mais aussi une question d’égalité humaine.
Imaginez que vous demandiez à une infirmière, à un enseignant ou à un employé du service client de prendre du temps sur sa journée, ou pire, sur sa soirée, pour suivre un cours sur l’IA. Pour beaucoup, ce temps n’existe tout simplement pas, et sans une conception réfléchie, ceux qui ont le plus besoin de l’IA pour soutenir leurs fonctions sont les moins susceptibles d’en bénéficier.
Le risque n’est pas seulement l’exclusion, c’est aussi l’exposition
Lorsque les employés ne sont pas formés à l’IA et doivent se débrouiller seuls, ils se tournent inévitablement vers les outils auxquels ils ont accès. Souvent, cela signifie utiliser des modèles d’IA générative (LLM) ou des applications dont les normes de confidentialité des données ne sont pas claires, exposant ainsi involontairement des données sensibles sur les clients ou les employés, enfreignant les règles de conformité ou prenant des décisions biaisées sans comprendre comment les résultats générés par l’IA sont produits.
Confier de puissants outils d’IA à des employés non formés revient à donner une voiture à quelqu’un sans lui apprendre à conduire. Ils arriveront peut-être à destination, mais les risques en cours de route sont énormes. De la responsabilité juridique à l’atteinte à la réputation, le coût d’un sous-investissement dans la formation est élevé.
Les RH doivent co-diriger la transformation de l’IA, pas seulement la communiquer
Les responsables des ressources humaines ne doivent pas attendre d’être invités à la table de l’IA. C’est leur domaine, car la réussite de l’adoption de l’IA en entreprise ne se résume pas à des outils. Elle concerne aussi la conception des postes, la gestion du changement, la planification des effectifs, l’équité et la culture.
Si une entreprise introduit l’IA dans le service client, par exemple, qu’est-ce que cela signifie pour les indicateurs de performance ? Doit-elle attendre des agents qu’ils traitent deux fois plus de demandes ? Comment mesurer la qualité par rapport à la quantité ? Quelles compétences doivent être développées et comment accompagner les employés dans ce changement ?
C’est pourquoi de plus en plus d’entreprises intègrent la formation à l’IA dans leurs processus quotidiens, non pas comme un apprentissage facultatif, mais comme un développement de compétences fondamentales. Elles comprennent que la réussite de la transformation nécessite une responsabilité partagée entre les responsables technologiques et les responsables RH.
Un cadre en trois étapes pour intégrer l’apprentissage de l’IA dans la journée de travail
Pour les entreprises qui souhaitent réellement résoudre le paradoxe du temps, la réponse ne se limite pas à l’annonce d’une nouvelle politique. Elle suppose de repenser en profondeur l’organisation du travail. Cela implique un engagement stratégique fort, pouvant aller jusqu’à la mise en place de cadres et de leviers structurels. Cette démarche peut s’articuler autour de trois axes principaux :
- Allouer et sécuriser le temps (règle des 10 %) : imposer un pourcentage minimum de la semaine de travail (par exemple, 10 % du temps d’un employé, soit trois heures et demie sur une semaine de 35 heures) explicitement dédié à l’acquisition de compétences futures, y compris l’apprentissage de l’IA. Ce temps doit être non négociable et protégé des réunions. Les services RH doivent travailler avec les responsables hiérarchiques pour ajuster les indicateurs de performance et les charges de travail afin de refléter ce changement de capacité, en le traitant comme un élément central de la description de poste, et non comme une tâche supplémentaire.
- Intégrer l’apprentissage dans le flux de travail (modèle « en temps réel ») : aller au-delà des formations génériques. Utiliser des outils basés sur l’IA qui proposent des prompts de micro-apprentissage et des tutoriels d’utilisation au sein même de l’application professionnelle. Par exemple, lorsqu’un agent du service client reçoit un résumé généré par l’IA, un module rapide devrait apparaître pour lui apprendre à affiner le prompt afin d’obtenir un meilleur résultat. Cela rend l’apprentissage immédiatement pertinent et productif.
- Mettre en place des « groupes de coaching IA » (modèle d’équité sociale) : formaliser le coaching interne en demandant aux premiers utilisateurs de l’IA d’encadrer de petits groupes au sein de leur équipe pendant leur temps de travail protégé. Ce modèle d’apprentissage social entre pairs favorise le changement culturel, démocratise les connaissances et permet aux employés de tester les outils en toute sécurité et de partager des directives éthiques dans un environnement fiable et contrôlé.
Un appel à l’action
Nous nous inquiétons à juste titre des biais intégrés à l’IA. Mais nous devrions nous préoccuper tout autant des préjugés et des inégalités qui pourraient apparaître si seule une petite partie de la main-d’œuvre était équipée pour l’utiliser.
Le paradoxe temporel est réel : si nous n’intégrons pas l’apprentissage de l’IA dans le travail, nous affirmons en fait qu’il est réservé à ceux qui ont les moyens de l’apprendre pendant leur temps libre. Il ne s’agit pas seulement d’un échec en matière de développement des talents, mais aussi d’un échec sur le plan concurrentiel, culturel et éthique.
Il est temps de considérer l’appropriation de l’IA comme un investissement stratégique à part entière, et non comme une initiative accessoire. Cela suppose de faire de l’apprentissage un processus intentionnel, inclusif et pleinement intégré aux pratiques de l’entreprise. Car lorsque l’équité est intégrée dès la conception, ce sont des organisations plus robustes, plus résilientes et plus performantes qui émergent.









![[LE DÉBRIEF] « QVEMA » saison 6, épisode 8 : les inventeurs pour conclure ! QVEMA](https://www.ecoreseau.fr/wp-content/uploads/2026/01/QVEMA-credits-M6-218x150.png)


















