Vous postulez à une offre. Un robot vous pose des questions. Une IA analyse votre CV. Ce n’est plus une fiction, c’est une réalité du recrutement. Pourtant, au moment où l’intelligence artificielle promet d’optimiser les RH, elle soulève une question sans précédent : qui contrôle vraiment ce que décide la machine ?
L’IA au service du recrutement ?
Un processus RH optimisé
L’intelligence artificielle s’est vite imposée comme un outil incontournable pour les recruteurs. Les algorithmes trient et analysent des milliers de CV en l’espace de quelques secondes. Ils détectent des mots-clés et l’IA estime la pertinence du profil.
Une véritable aubaine pour les entreprises qui peuvent gagner un temps considérable sur des tâches très chronophages. Le rôle de l’IA ne s’arrête pas là, il passe également par la réalisation d’entretiens pré-enregistrés qui aident à pré-qualifier des candidats sans avoir besoin d’une intervention humaine.
Selon un article Le Monde, paru en 2024, certaines startups proposent des processus de recrutement 100% automatisés, une vraie tendance qui amène de lourds questionnements du côté des professionnels en RH.
Carrefour a aussi testé cette tendance en faisant passer des entretiens d’embauche directement à travers le métavers.
Des décisions plus justes ? L’IA à l’épreuve de l’équité
L’intelligence artificielle serait notre alliée dans les processus de recrutement ?
Cela serait motivé par un argument de taille, l’IA éviterait les jugements, les stéréotypes de genres ou bien d’autres critères contraires au code du travail.
En effet, les algorithmes ne peuvent pas analyser les photos, les types de prénoms, les origines ou autres. Ils se basent sur des critères d’objectifs, de compétences et d’expériences.
Mais cette promesse d’équité tient-elle vraiment ? En réalité, pas vraiment, selon le site Psico Smart, une étude a révélé en 2023 que plus de 30% “des candidatures qualifiées peuvent être rejetées en raison de biais algorithmique”. De plus, selon le site Stratformation.fr l’IA peut introduire des biais inattendus si les données utilisées ne sont pas représentatives ou si elles contiennent déjà des préjugés.
Les limites de l’IA : quand la technologie recycle le passé
Les risques algorithmiques
L’IA est certes une prouesse informatique, mais elle commet des erreurs.
L’exemple d’Amazon en est la preuve. Selon le site Artimon, Amazon a abandonné son système de recrutement focalisé sur l’IA en 2018. La raison ? L’entreprise avait constaté que l’intelligence artificielle faisait de nombreuses erreurs, elle défavorisait constamment les profils féminins pour des postes techniques.
La question qui se pose maintenant serait : Pourquoi ? L’IA procédait de cette façon car elle avait été programmée en se basant sur les données de recrutement des dix dernières années, qui recensaient principalement des profils masculins.
Comme le mentionne le rapport d’Artimon, une chose est à retenir : l’intelligence artificielle ne crée rien, elle amplifie ce qu’on lui donne.
“Un mauvais algorithme peut devenir un mauvais recruteur, à grande vitesse”
L’avis de Luc JULIA : « L’IA n’est pas intelligente, elle calcule »
Luc JULIA, expert en IA et co-créateur de Siri, a une réponse claire sur les limites des technologies actuelles.
Il évoque, dans son livre L’intelligence artificielle n’existe pas paru en 2019, que l’IA est un ensemble de calculs statistiques. Selon l’expert, elle ne peut comprendre le contexte, les intentions humaines, les émotions, elle ne fait que lier des données pour en tirer une belle probabilité.
« Ce n’est pas de l’intelligence, c’est juste de la logique statistique. » – Luc JULIA
Il a récemment donné une interview pour le journal Le Figaro parue en mai 2025, où il affirme que nous sommes à la veille de la désillusion face aux IA génératives comme ChatGPT. Il appelle à une prise de recul sur leur véritable portée.
L’expert incite à garder une supervision humaine et un esprit critique dans les processus de recrutement si une entreprise inclut l’IA dans ses étapes d’embauche.
Luc JULIA partage son expertise et inspire les équipes lors de ses interventions. Ici, il prend la parole lors d’une conférence organisée par l’entreprise CINOV.

©Simone & Nelson
Un recrutement plus éthique ? L’alliance entre l’IA et l’humain
Comme l’a exposé Luc JULIA, il est préférable d’opter pour une corrélation entre l’humain et l’intelligence artificielle dans ce processus.
L’humain au coeur du processus
L’IA doit rester une option, juste un outil d’aide mais rien de plus.
Par exemple, l’entreprise Gojob, spécialisée dans le recrutement en intérim, a mis en place cette stratégie. Elle a opté pour mettre en place un assistant virtuel qui pré-qualifie un candidat en 15 minutes.
Ainsi, les recruteurs gagnent du temps et gardent la main sur la phase de décision. À la suite de cette pré-qualification, le candidat est renvoyé vers le recruteur pour la suite des étapes du recrutement. L’entreprise utilise l’IA comme outil d’aide à la décision tout en gardant l’humain comme décisionnaire final.
À chacun son organisation !
Transparence et régulation : encadrer l’utilisation de l’IA
Le sujet de l’intelligence artificielle reste source de questionnement, c’est pourquoi l’Union Européenne a pris position sur cette thématique.
En 2024, le Règlement Européen sur l’Intelligence Artificielle (AI Act) est adopté. Il impose des règles strictes en matière de transparence pour les algorithmes qui sont utilisés dans des domaines sensibles, comme le recrutement.
La réglementation est la suivante : Les fournisseurs et utilisateurs de systèmes d’IA doivent informer les personnes concernées lorsqu’elles interagissent avec un système d’IA, sauf si cela est évident pour une personne raisonnablement informée. – Art-50
Les personnes affectées par une décision prise à l’aide d’un système d’IA à haut risque ont le droit d’obtenir des informations sur le rôle du système dans le processus décisionnel. – Art-26
Enfin, une dernière réglementation entre en vigueur quant à la transparence des informations, le RGPD (Règlement Général sur la Protection des Données). Cette règle reste essentielle dans ce cas précis pour interdire toute prise de décision automatisée sans intervention humaine sauf consentement explicite.
L’intelligence artificielle dans le recrutement est certes une technologie forte, mais elle est aussi très fragile. Elle peut éviter des tâches répétitives et longues, objectiver et améliorer, mais elle peut aussi renforcer les discriminations ! Le défi reste alors de faire preuve d’éthique, en collaborant de façon contrôlée avec l’IA dans le processus de recrutement.