L’entretien augmenté – comment détecter un candidat assisté par IA


L’entretien augmenté : comment détecter un candidat assisté par IA sans devenir paranoïaque

Les recruteurs ont toujours soupçonné les candidats d’arriver préparés.

Fiches mémo.
Coaching.
Questions d’entretien apprises par cœur.

Mais depuis 2025, une nouvelle catégorie d’outils a changé la donne : les Live Interview Copilots.

Ces assistants analysent la conversation en temps réel et soufflent des réponses via :

  • sous-titres affichés sur l’écran,
  • oreillettes,
  • ou même synthèse vocale discrète.

En pratique, le candidat parle… mais la réflexion se fait ailleurs.

L’entretien devient alors un jeu étrange :
un humain qui dialogue avec un recruteur… pendant qu’une machine murmure les réponses.

Faut-il s’en inquiéter ?
Peut-on le détecter ?
Et surtout : est-ce réellement un problème ?

Avant de sombrer dans la paranoïa, regardons les signaux.

1. Les signaux faibles : le body language numérique

Même avec une IA très rapide, certains indices restent difficiles à masquer.

Le premier concerne le regard.

Un humain qui réfléchit regarde souvent ailleurs, vers le haut ou dans le vide.
Un humain qui lit balaie un texte horizontalement.

Dans un entretien vidéo, cela se voit souvent très bien : les yeux suivent une ligne invisible située au-dessus de la webcam.

Autre indice : la latence artificielle.

Les copilotes conversationnels fonctionnent selon un pipeline classique :

  1. transcription de la question,
  2. génération de la réponse,
  3. affichage ou synthèse vocale.

Même optimisé, ce processus introduit une latence de quelques secondes.

Résultat :
un micro-silence systématique, puis une réponse parfaitement structurée.

Curieusement parfaite.

Pas de reformulation.
Pas d’hésitation.
Pas de “euh”.

Or la pensée humaine est chaotique.
Elle trébuche.
Elle bifurque.

Une réponse trop propre peut parfois être un indice… qu’elle n’est pas entièrement humaine.

2. La technique du saut de contexte

Les LLM — les Large Language Models, c’est-à-dire les modèles d’IA générative comme GPT ou Claude, excellent sur des questions isolées.

Ils sont beaucoup moins confortables lorsqu’on reconnecte plusieurs moments d’une conversation.

Une technique simple consiste à provoquer un changement brutal de niveau d’abstraction.

Exemple :

Le candidat explique une stratégie produit.
Tu attends la fin.

Puis tu enchaînes immédiatement :

“Comment appliquerais-tu ce principe avec la contrainte budgétaire de 80 000 € que j’ai mentionnée au début de l’entretien ?”

Cette technique teste deux choses :

  • la mémoire contextuelle
  • la capacité d’adaptation instantanée

Un humain peut répondre imparfaitement mais rapidement.

Un candidat assisté par IA doit souvent attendre une nouvelle génération de réponse, ce qui recrée une latence suspecte.

3. Le test de la pensée latérale

Les IA sont entraînées sur des milliards de textes.

Cela leur donne une caractéristique très particulière :
elles convergent vers le consensus moyen.

Autrement dit, elles produisent des réponses équilibrées, raisonnables, presque diplomatiques.

Un bon moyen de tester l’authenticité consiste à demander un avis impopulaire argumenté.

Par exemple :

“Donne-moi une pratique de management très répandue avec laquelle tu es profondément en désaccord.”

Un humain expérimenté répond souvent avec :

  • une opinion tranchée
  • une anecdote vécue
  • parfois même une émotion

L’IA, elle, répond souvent par une structure très reconnaissable :

“D’un côté… mais d’un autre côté…”

Cette neutralité est la signature statistique d’un modèle entraîné sur l’Internet entier.

4. La contre-offensive technologique

Certaines entreprises commencent à utiliser des techniques inspirées du proctoring, utilisé dans les examens en ligne.

Le proctoring est un ensemble de technologies qui surveillent l’environnement numérique d’un candidat.

Par exemple :

Analyse de la prosodie vocale

La prosodie désigne le rythme et l’intonation de la parole.
Un texte lu présente un rythme très différent d’une pensée spontanée.

Des algorithmes peuvent détecter ces patterns.

Détection de changement de fenêtre

Certains outils mesurent si le candidat quitte la fenêtre de visioconférence pendant l’entretien.

C’est un indicateur imparfait… mais parfois révélateur.

Watermarking sonore

Technique fascinante : le recruteur diffuse des fréquences inaudibles dans le flux audio.

Si une IA intermédiaire retransmet ce son, elle peut involontairement ré-émettre ces signatures acoustiques, révélant sa présence.

C’est un peu l’équivalent d’une encre invisible… mais pour les conversations.

5. Le vrai problème n’est peut-être pas celui qu’on croit

La tentation est grande de transformer ces pratiques en chasse aux sorcières technologique.

Ce serait une erreur.

Car il faut poser la question inverse :

Si un candidat est capable d’utiliser une IA discrètement, intelligemment et efficacement pendant un entretien…
n’est-ce pas précisément la compétence que nous recherchons pour travailler en 2026 ?

Dans la plupart des métiers intellectuels, la productivité repose désormais sur une collaboration homme-machine.

Le vrai danger n’est pas l’usage de l’IA.

Le vrai danger est l’usage de l’IA pour masquer une absence totale de compétence.

Conclusion

L’entretien technique tel qu’on le connaissait est probablement en train de disparaître.

Dans un monde où la connaissance brute est accessible instantanément, tester la mémoire n’a plus beaucoup de sens.

Le vrai enjeu devient autre chose :

  • le discernement
  • la capacité de raisonnement
  • l’authenticité

En 2026, recruter ne consiste plus seulement à évaluer ce que quelqu’un sait.

Il s’agit de comprendre comment il pense… même quand une machine pense avec lui.