Le futur des appels téléphoniques : vers des conversations 100 % IA ?

Les appels téléphoniques sont en pleine mutation : après les callbots, place aux conversations 100 % IA. Découvrez les enjeux techniques, légaux et les cas d’usage concrets de cette révolution vocale – et comment Rounded s’y prépare.

16 mai 2025

Jacques Lecat

Une vidéo a récemment fait le buzz dans l’univers tech : deux agents vocaux IA échangent par téléphone, réalisent qu’ils ne parlent pas à un humain… et basculent dans un langage codé, totalement incompréhensible pour l’oreille humaine. Ce moment fascinant — et un peu dérangeant — annonce peut-être une nouvelle ère : celle des conversations 100 % IA.

Les appels téléphoniques, longtemps territoire exclusivement humain, sont déjà largement transformés par l’IA vocale. Et demain, ils pourraient devenir entièrement automatisés, de machine à machine. Dans cet article, on tente d’imaginer ce futur : ce que cela change techniquement, ce que cela implique légalement, et comment une plateforme comme Rounded peut accompagner cette évolution.

L’évolution des appels téléphoniques

Les appels téléphoniques ont longtemps reposé sur un principe simple : une personne appelle, une autre répond. Puis les entreprises ont cherché à automatiser certains échanges à grande échelle, avec l’arrivée des serveurs vocaux interactifs (SVI). Ces menus à choix multiples – « Tapez 1 pour… » – ont marqué une première rupture dans la relation client. Peu flexibles, souvent frustrants, ils ont ouvert la voie à une nouvelle génération d’interfaces vocales.

Au fil des années, les callbots ont pris le relais, avec des capacités d’analyse vocale plus poussées. Mais c’est l’arrivée des LLM (Large Language Models) qui a véritablement fait basculer le canal vocal dans une nouvelle dimension. Grâce à ces modèles, les agents vocaux IA peuvent désormais comprendre le langage naturel, détecter l’intention d’un appelant, et tenir des conversations fluides et contextualisées.

Un tournant symbolique a été franchi en 2018 avec Google Duplex, une IA capable de passer un appel pour prendre un rendez-vous chez le coiffeur ou réserver une table au restaurant. La démonstration a marqué les esprits : la voix était naturelle, les hésitations réalistes, et surtout, l’interlocutrice humaine n’a jamais deviné qu’elle parlait à une machine.

Aujourd’hui, ces technologies sont accessibles à toutes les entreprises. Des agents vocaux répondent à des appels entrants, relancent des clients, ou prennent des rendez-vous automatiquement. Mais une nouvelle étape se dessine : celle d’un appel sans aucun humain, où deux agents conversationnels IA échangent entre eux. Une transformation profonde, qui change la nature même de ce qu’on appelle une “conversation téléphonique”.

2. Un appel IA ↔ IA : efficacité, risques et responsabilités

Faire dialoguer deux agents vocaux IA peut sembler être la prochaine étape naturelle : après tout, si une IA sait parler à un humain, pourquoi ne pas lui permettre de parler à une autre IA pour gagner en efficacité ? Mais cette idée en apparence simple cache une réalité bien plus complexe.

Un appel entre deux IA n’a plus rien d’un outil d’assistance : c’est un système conversationnel autonome, où l’humain est absent de bout en bout. Et dès qu’on laisse deux machines dialoguer sans supervision, une multitude de risques émergent. Risques de mésentente entre les modèles, de boucles infinies si l’une ne comprend pas l’autre, de décisions erronées comme la validation d’un rendez-vous non sollicité, ou encore de désaccords d’interprétation sur ce qui a réellement été dit. Contrairement à un humain, une IA ne reste pas silencieuse en cas d’hésitation : elle continue, cherche une réponse, agit coûte que coûte. Là où un humain freinerait ou demanderait une reformulation, l’IA exécute. C’est à la fois sa force… et sa limite. Dans ce contexte, tout doit être tourné vers l’efficacité structurée, avec un prompt clair, des règles précises et une capacité de repli en cas d’incompréhension.

Ces conversations exigent donc une conception technique spécifique. Il ne s’agit plus de produire une expérience fluide pour un utilisateur humain, mais de construire un canal d’échange machine-to-machine. Cela repose sur des prompts courts, des règles de décision explicites, et surtout des protocoles de communication optimisés. Car une question devient vite centrale : deux IA qui se parlent… ont-elles encore intérêt à utiliser la voix humaine ?

La voix est un médium pensé pour nous : lente, ambiguë, chargée d’intonations, et limitée en débit. Pour les IA, tout cela est inutile. Des chercheurs proposent déjà des alternatives plus efficaces, où les agents échangent non pas des phrases, mais des paquets d’informations compressées – sous forme de JSON, de structures API, ou même de sons codés que seuls les modèles comprennent. Si l’appel passe par le réseau téléphonique, rien n’empêche de convertir des données en sons synthétiques, optimisés pour le dialogue inter-IA. Il ne s’agit plus alors d’une conversation vocale, mais d’un protocole codé à travers la voix.

Un exemple concret illustre cette bascule : le mode GibberLink. En février 2025, deux ingénieurs ont présenté ce protocole lors d’un hackathon. Leur idée : permettre à deux agents vocaux IA de reconnaître qu’ils parlent à une machine, et de switcher automatiquement vers une langue optimisée, incompréhensible pour les humains. Fini l’anglais, place à une suite de sons numériques ultrarapides, générés via la librairie open-source GGWave. Résultat : l’échange devient 80 % plus rapide qu’une conversation classique. Pour les IA, c’est un gain d’efficacité considérable. Pour nous, c’est du gibberish : impossible de comprendre ce qui se dit, sauf à extraire une transcription après coup.

Et c’est là que se pose un défi crucial : comment superviser une conversation qu’on ne peut pas écouter ? Comment s’assurer que deux IA qui communiquent en langage codé ne font que ce qu’elles sont censées faire – et rien de plus ? Le monitoring devient une condition non négociable. Il faut pouvoir auditer chaque échange, suivre les variables clés, détecter les sorties de route, et – le cas échéant – interrompre la conversation. Des pistes existent, comme la génération automatique de rapports de conversation ou de résumés d’échanges lisibles par un humain. Mais cela suppose une infrastructure technique robuste et une volonté claire de garder l’humain dans la boucle, même lorsqu’il ne parle plus.

Enfin, une autre question émerge, plus juridique cette fois : à qui la faute si l’appel dérape ? Si un agent IA appelle un autre et qu’une action non souhaitée est déclenchée – un paiement, une annulation, une décision engageante – qui est responsable ? L’entreprise à l’origine de l’appel ? Celle qui a conçu l’agent ? Le fournisseur de technologie ? Et si c’est l’agent vocal du client qui a mal répondu, peut-on le lui reprocher ? Comme pour les véhicules autonomes, ces nouvelles formes de délégation nécessitent de repenser la notion de responsabilité. Il faudra des règles, des garde-fous, et surtout de la traçabilité pour comprendre ce qu’il s’est passé en cas de litige.

En résumé, le passage à des conversations IA ↔ IA promet des gains de performance considérables, mais impose un changement de culture : concevoir autrement, monitorer autrement, encadrer autrement. Le défi est technique, mais aussi éthique et légal. Et ce n’est qu’en posant les bonnes bases dès maintenant qu’on pourra tirer le meilleur de cette nouvelle ère conversationnelle.

Cas d’usage à court terme

Ces appels entre agents vocaux IA ne relèvent plus seulement de la science-fiction. Plusieurs cas d’usage concrets pourraient émerger dès les 12 à 24 prochains mois, notamment dans les secteurs où les appels humains sont encore trop nombreux, trop chronophages… et pourtant parfaitement standardisables.

1. Planification automatisée de rendez-vous

Un assistant vocal personnel pourrait appeler le standard d’un cabinet médical ou d’un salon de coiffure pour prendre un rendez-vous. Si ce standard est lui aussi géré par un agent IA, la conversation peut se faire sans aucune intervention humaine : vérification des créneaux disponibles, prise en compte des préférences horaires, confirmation par SMS… Le tout traité en quelques secondes entre deux intelligences artificielles.

2. Coordination logistique entre entreprises

Dans la chaîne logistique, un système IA d’un entrepôt peut appeler l’IA du transporteur pour valider une heure de livraison ou confirmer la réception d’un colis. Ce type d’échange, aujourd’hui encore souvent géré par téléphone entre opérateurs, pourrait devenir un appel automatisé structuré, avec envoi de variables (numéro de colis, horaire, référence) et retour d’information horodaté – sans aucune saisie manuelle.

3. Confirmation d’adresse avant livraison

Dans l’e-commerce, une IA logistique pourrait appeler l’IA d’un service client pour confirmer automatiquement une adresse, une disponibilité ou un numéro de téléphone avant envoi. Ce type d’échange IA ↔ IA réduit les erreurs de livraison, limite les retours et fluidifie les envois sans intervention humaine.

4. Assistance inter-systèmes dans le support technique

Un système de supervision (par exemple dans un bâtiment intelligent ou un serveur cloud) détecte un incident. Il déclenche alors un appel automatique vers l’agent IA du support technique du prestataire. L’IA de supervision énonce l’anomalie, l’agent support IA propose des vérifications ou confirme qu’un ticket est en cours. Cette première ligne d’appel IA ↔ IA permet de filtrer intelligemment les incidents, sans mobiliser inutilement un opérateur humain.

Pourquoi Rounded est bien positionné pour ce futur

Si les appels entre agents vocaux IA deviennent une réalité, alors une question s’impose : quelle plateforme sera capable de les structurer, les encadrer et les superviser efficacement ? C’est là que Rounded a un rôle à jouer.

D’abord, parce que chaque agent vocal créé sur Rounded est hautement personnalisable. On peut ajuster en détail le prompt, choisir le modèle de langage utilisé (LLM), définir la voix et le ton de l’agent, sélectionner le transcriber le plus adapté, et surtout, mettre en place des garde-fous essentiels à une conversation entre IA : temps d’appel maximum, conditions de raccrochage, règles de reprise ou de désactivation automatique. Dans un monde où les échanges machine ↔ machine doivent être parfaitement structurés, cette capacité à maîtriser finement le comportement de l’agent est un atout majeur.

Ensuite, Rounded est une plateforme API-first, pensée pour s’intégrer dans des écosystèmes complexes. Grâce à ses tools et à la gestion des variables, un agent Rounded peut à tout moment envoyer, transformer ou recevoir des données. Et c’est là une différence fondamentale avec les agents vocaux traditionnels conçus pour interagir avec des humains : ces données peuvent être immédiatement exploitables par une autre IA. En clair, Rounded n’automatise pas juste des appels – il connecte des systèmes entre eux via la voix, ce qui ouvre la voie à des architectures conversationnelles entièrement automatisées.

Enfin, tout cela ne tiendrait pas sans un vrai système de monitoring. Sur Rounded, chaque appel peut être consulté, trié, arrêté en temps réel. Les transcripts sont accessibles, les variables extraites sont lisibles, et l’utilisateur garde en permanence le contrôle sur ce que fait l’agent. C’est une condition indispensable pour envisager des appels IA ↔ IA à grande échelle, sans craindre les dérives ou les erreurs invisibles.

Tout dans la conception de Rounded — personnalisation, intégration, supervision — en fait une base technologique solide pour accompagner la transition vers des conversations téléphoniques 100 % IA.

Et après ? Un agent vocal pour chaque utilisateur ?

Si les entreprises commencent à adopter les appels IA ↔ IA, qu’en sera-t-il du grand public demain ? On peut facilement imaginer qu’à terme, chaque utilisateur dispose de son propre agent vocal personnel, un peu comme chacun possède aujourd’hui son smartphone.

Cet assistant conversationnel intelligent pourrait passer des appels en notre nom pour toutes sortes de tâches du quotidien : prendre un rendez-vous chez le dentiste, négocier un tarif, relancer un commerçant sur une commande en retard… Il appellerait, expliquerait la situation, dialoguerait avec l’interlocuteur — qu’il soit humain ou lui-même une IA — puis nous ferait un compte-rendu clair et synthétique, sans qu’on ait eu à décrocher.

Dans ce futur, chaque client serait représenté vocalement par une IA. Plus de temps perdu en attentes téléphoniques, plus besoin de répéter les mêmes demandes à différents services : notre agent vocal gérerait à notre place toutes les interactions standardisées. Une ébauche de ce scénario a déjà été montrée par Google avec Duplex, l’IA capable de réserver une table ou fixer un rendez-vous par téléphone. Mais là où Duplex restait une démonstration technologique, ce type d’usage pourrait demain devenir accessible à tous, via des plateformes comme Rounded.

Les implications sont immenses. D’un côté, c’est un levier d’inclusion : une personne en difficulté avec l’oral pourrait déléguer sa parole à son agent. C’est aussi un gain de temps évident, en automatisant toutes les interactions chronophages. Et c’est potentiellement une amélioration de la relation client, si deux IA — bien configurées — peuvent dialoguer instantanément et efficacement entre elles.

Mais ce futur pose aussi des questions. Souhaitera-t-on être appelé par l’agent vocal de quelqu’un d’autre ? Quelles seront les limites de ces agents personnels ? Comment s’assurer qu’ils représentent fidèlement nos intentions ? Devra-t-on encadrer juridiquement leurs prises de décision ? Ces interrogations ne sont pas secondaires : elles dessinent les contours d’une société où la voix, longtemps humaine par essence, devient déléguée, automatisée, multipliable.

Ce qui est certain, c’est que la voix reste un canal universel et profondément humain. Et pourtant, l’intelligence artificielle est en train d’en redéfinir les usages. Le futur des appels téléphoniques sera sans doute plus fluide, plus rapide, plus intelligent — mais aussi plus impersonnel. Sommes-nous prêts à confier notre voix à un agent conversationnel IA ? Peut-être. Ce qui est sûr, c’est que cette révolution a déjà commencé.