Entretien augmenté par IA

L’entretien d’embauche a longtemps reposé sur une idée simple :
un recruteur pose des questions, un candidat répond, et l’échange permet d’évaluer compétences, expérience et capacité de réflexion.
Mais l’arrivée des assistants basés sur l’intelligence artificielle change progressivement la nature de cet exercice.
Aujourd’hui, certains candidats utilisent des outils capables d’écouter une question, de l’analyser et de proposer en temps réel une réponse structurée. On parle parfois de copilotes d’entretien.
Le candidat n’est plus seul face au recruteur.
Il est assisté par un système capable de générer des suggestions, reformuler des réponses ou structurer un argumentaire.
Nous entrons alors dans une nouvelle phase du recrutement : l’entretien augmenté par IA.
Quand l’entretien devient un échange augmenté
Dans un entretien classique, le recruteur cherche généralement à évaluer trois dimensions :
- les compétences techniques
- l’expérience professionnelle
- la capacité de raisonnement
Mais les outils d’IA peuvent aujourd’hui assister le candidat pendant la conversation.
Typiquement, un assistant d’entretien peut utiliser plusieurs briques technologiques :
- speech-to-text : conversion de la parole en texte
- modèle de langage (LLM) : système capable de générer du texte cohérent à partir d’une question
- interface de suggestion : affichage ou lecture de réponses proposées
Le fonctionnement ressemble souvent à ceci :
question du recruteur
→ transcription automatique
→ analyse par un modèle de langage
→ suggestion de réponse
Ce processus peut prendre seulement quelques secondes.
Dans cette configuration, l’entretien devient un peu différent :
ce n’est plus uniquement un échange entre deux humains, mais un humain assisté par un système cognitif artificiel.
Peut-on détecter une assistance par IA ?
La réponse la plus honnête est : parfois, mais jamais avec certitude.
Il n’existe aujourd’hui aucune méthode fiable à 100 % pour déterminer si un candidat est assisté par un outil d’intelligence artificielle pendant un entretien.
Ce que l’on peut observer, ce sont uniquement des signaux faibles.
Un signal faible est un indice probabiliste : pris isolément il ne signifie rien, mais plusieurs indices combinés peuvent suggérer l’utilisation d’un assistant.
Signal possible n°1 : une latence inhabituelle dans les réponses
Lorsqu’un assistant IA intervient, plusieurs étapes techniques se produisent :
- la question est capturée
- elle est transcrite
- le modèle de langage génère une réponse
- la suggestion est affichée ou transmise
Ce processus introduit souvent un temps de latence de quelques secondes.
On peut parfois observer :
- un silence légèrement plus long que la normale
- un regard qui se déplace vers un autre écran
- une réponse qui arrive soudainement très structurée
Exemple :
Recruteur :
Pouvez-vous me parler d’un projet complexe que vous avez mené ?
Réponse spontanée :
Oui… alors… je pense à un projet chez mon ancien employeur où on avait un problème de performance sur une API…
Réponse potentiellement assistée :
Dans mon précédent poste, j’ai été confronté à un problème complexe lié à l’optimisation des performances d’une application.
La différence reste subtile, mais elle peut parfois apparaître dans le rythme de la conversation.
Signal possible n°2 : des réponses très structurées
Les modèles de langage ont une forte tendance à organiser l’information de manière logique.
On observe fréquemment des structures comme :
- contexte
- problème
- solution
- résultat
Ou encore :
Premièrement… Deuxièmement… Enfin…
Dans une conversation spontanée, les humains improvisent rarement des réponses aussi structurées.
Une réponse parfaitement organisée à l’oral peut donc parfois être un indice d’assistance.
Signal possible n°3 : une réponse théorique mais peu incarnée
Les modèles de langage possèdent une immense base de connaissances théoriques.
Ils peuvent produire des réponses très plausibles même si le candidat n’a jamais vécu la situation.
Par exemple :
Recruteur :
Comment avez-vous géré la montée en charge de votre application ?
Réponse possible générée :
Nous avons mis en place une architecture microservices avec orchestration Kubernetes.
La réponse semble crédible.
Mais si l’on creuse :
Quel problème concret vous a poussé à faire ce choix ?
La réponse peut devenir plus vague.
Pourquoi ?
Parce que l’IA connaît les concepts… mais pas l’expérience réelle du candidat.
Signal possible n°4 : le comportement visuel
Lorsqu’une personne lit un texte sur un écran, certains indices peuvent apparaître :
- les yeux suivent une zone fixe
- le regard reste orienté vers un point précis
- le rythme de parole correspond parfois à une lecture
Ces micro-mouvements sont parfois utilisés dans les systèmes d’analyse comportementale.
Mais ils doivent être interprétés avec prudence.
Beaucoup de personnes regardent ailleurs simplement pour réfléchir.
Les limites de la détection
Il est important de rappeler que ces signaux ne constituent jamais une preuve.
Plusieurs situations peuvent produire les mêmes comportements :
- un candidat stressé peut hésiter avant de répondre
- un candidat très préparé peut donner des réponses très structurées
- un expert peut répondre très vite à une question complexe
- certaines personnes réfléchissent en regardant ailleurs
Inversement, les assistants IA deviennent de plus en plus discrets.
Certains outils utilisent aujourd’hui :
- transcription en temps réel
- génération de réponse en streaming
- synthèse vocale via oreillette
Dans ces conditions, la latence peut devenir presque invisible.
La détection repose donc uniquement sur l’accumulation de signaux faibles, jamais sur un seul indice.
Le test le plus efficace : introduire de l’imprévu
Une méthode simple consiste à sortir du script.
Quelques techniques efficaces :
- demander un exemple très précis
- poser une question inattendue
- introduire un problème nouveau
- demander une explication détaillée d’une expérience réelle
Exemple :
Imaginons que votre API tombe en panne en pleine période de trafic.
Que faites-vous dans les dix premières minutes ?
Ce type de question mobilise l’expérience concrète du candidat et rend les réponses génériques plus difficiles.
Une question plus importante : faut-il vraiment détecter l’IA ?
Dans la réalité du travail moderne, personne ne travaille sans outils :
- moteurs de recherche
- documentation technique
- assistants de code
- modèles de langage
L’entretien d’embauche est souvent l’une des rares situations où l’on exige une réflexion totalement isolée.
Mais dans la pratique professionnelle, ce n’est presque jamais le cas.
La vraie question devient donc peut-être :
un candidat sait-il utiliser l’IA de manière pertinente ?
Vers l’entretien collaboratif avec IA
Certaines entreprises commencent à explorer une approche différente : autoriser l’utilisation d’outils IA pendant l’entretien.
Dans ce cas, l’évaluation porte sur d’autres compétences :
- la capacité à formuler une question claire
- la capacité à vérifier les réponses générées
- la capacité à corriger ou adapter une suggestion
L’objectif n’est plus seulement de tester la mémoire, mais le raisonnement et l’usage des outils.
L’évolution probable des entretiens
À mesure que les assistants IA deviennent omniprésents, les entretiens pourraient évoluer vers des formats plus pratiques :
- résolution de problèmes en direct
- exercices techniques
- simulations de situations réelles
- mini-projets collaboratifs
Ces formats permettent d’évaluer non seulement les connaissances, mais aussi :
- la capacité d’adaptation
- le raisonnement
- l’usage intelligent des outils disponibles
Dans un monde où chacun peut être augmenté par l’IA, la compétence la plus précieuse reste finalement très humaine :
savoir réfléchir, décider et utiliser les outils avec discernement.

