Les intelligences artificielles "agentes", capables d'agir à notre place, se multiplient. Mais quand l'une d'elles commet une erreur, la question de la responsabilité devient un véritable casse-tête.
Vous avez demandé à votre assistant vocal de commander votre plat préféré et il vous livre une choucroute garnie à la place de votre sushi adoré ? Ou, plus sérieusement, l'IA de votre entreprise a approuvé une dépense erronée, coûtant cher à la société ? Bienvenue dans le monde fascinant et un brin angoissant des agents IA, ces logiciels qui promettent de révolutionner notre quotidien en prenant des initiatives. Mais quand ces prodiges de la tech dérapent, une question simple devient un véritable casse-tête : qui est responsable ?
Oubliez le simple chatbot qui répond poliment à vos questions. Les agents IA, c'est un peu comme si vous donniez à votre ordinateur une mission complexe et qu'il se débrouillait (presque) tout seul pour l'accomplir. Ces programmes sont conçus pour agir de manière largement autonome, capables de prendre des décisions et d'exécuter des tâches allant de la réponse aux questions clients au paiement de factures. Microsoft et d'autres géants de la tech imaginent même qu'ils s'attaqueront à des fonctions bien plus complexes, avec une supervision humaine minimale.
L'enthousiasme est palpable : le cabinet d'études Gartner estime que les agents IA résoudront 80 % des requêtes courantes des services clients d'ici 2029. Sur Fiverr, une plateforme où les entreprises peuvent recruter des codeurs indépendants, les recherches pour le terme « ai agent » ont littéralement explosé, avec une hausse de 18 347 % ces derniers mois. Ça donne le vertige, non ?
Autre article : AlphaEvolve : l'IA de Google qui code plus vite que son ombre
L'ambition ultime du secteur est de créer des systèmes "multi-agents". Imaginez une équipe d'IA spécialisées qui collaborent pour remplacer des équipes humaines entières. Le gain de temps et d'argent pour les entreprises semble évident. Mais c'est là que les choses se corsent, comme l'a expérimenté Jay Prakash Thakur, un ingénieur logiciel qui consacre son temps libre à prototyper ces systèmes. En utilisant AutoGen, un logiciel open source de Microsoft pour construire des agents (Amazon a d'ailleurs lancé un outil similaire nommé Strands, et Google propose son "Agent Development Kit"), il a mis le doigt sur un problème de taille.
Selon Thakur, lorsque des agents de différentes entreprises interagissent au sein d'un même grand système, identifier qui est responsable en cas d'erreur de communication peut devenir un véritable casse-tête. Il compare la difficulté de passer en revue les journaux d'erreurs de divers agents à celle de reconstituer une conversation à partir des notes fragmentées de plusieurs personnes. « Il est souvent impossible de déterminer avec certitude la responsabilité », explique-t-il.
Pour illustrer ses craintes, Thakur a mené des expériences révélatrices. L'une d'elles concernait un système de commande pour un restaurant futuriste capable d'accepter des commandes personnalisées. Un utilisateur tape "burgers et frites", un agent IA recherche un prix approprié, traduit la commande en recette, puis la transmet à une brigade de robots aux compétences culinaires variées. Si Thakur ne possède ni cuisine commerciale ni robots, sa simulation a permis d'identifier les pièges.
Neuf fois sur dix, tout se passait bien. Mais il y a eu des ratés : une demande pour des « onion rings » (beignets d'oignon) s'est transformée en « oignons supplémentaires ». Des requêtes comme « naan supplémentaire » ont été ignorées. Les erreurs avaient tendance à apparaître lorsque Thakur essayait de faire passer des commandes de plus de cinq articles. Le pire scénario, dans la vie réelle, serait de mal servir une personne souffrant d'une allergie alimentaire. Dans un autre prototype, un agent de comparaison d'achats a trouvé une bonne affaire sur un site de commerce électronique mais a incorrectement lié à une page produit sur un autre site, qui affichait un prix plus élevé. Imaginez la surprise si l'agent avait été programmé pour acheter automatiquement !
Alors, quand l'IA commet une bourde aux conséquences financières, qui est mis à contribution ? C'est le nœud du problème. Joseph Fireman, conseiller juridique principal chez OpenAI, a déclaré lors d'une récente conférence juridique que les parties lésées ont tendance à poursuivre celles qui ont « les poches les plus profondes ». Autrement dit, des entreprises comme la sienne devront se préparer à assumer une certaine responsabilité, même si un utilisateur un peu trop créatif est à l'origine du pépin. « Je ne pense pas que quiconque espère s'en prendre au consommateur assis dans le sous-sol de sa mère devant son ordinateur », a-t-il ajouté. Pour faire face à ces situations, le secteur des assurances commence d'ailleurs à proposer des couvertures pour les problèmes liés aux chatbots IA.
On se souvient d'ailleurs qu'un coupon de réduction, inventé par inadvertance par le chatbot IA d'une compagnie aérienne l'année dernière, a été jugé juridiquement contraignant. Des erreurs qui peuvent coûter cher, comme lorsque Naveen Chatlapalli, un développeur aidant les entreprises avec des agents, a vu un agent RH approuver des demandes de congé qu'il aurait dû refuser, ou un agent preneur de notes envoyer des informations sensibles de réunions au mauvais département.
Face à ce potentiel chaos numérique, les développeurs espèrent qu'un « agent juge » pourra superviser ces systèmes, identifier et corriger les erreurs avant qu'elles ne dégénèrent. Ce super-agent serait le manager qui comprendrait que le client voulait des beignets d'oignon, et non une overdose d'oignons crus. Cependant, Mark Kashef, un freelance qui dirige une société de conseil en stratégie IA appelée Prompt Advisers, s'inquiète que les entreprises ne commencent à surcharger les premiers systèmes avec un nombre inutile d'agents, créant une sorte de bureaucratie numérique.
Les experts juridiques suggèrent que les utilisateurs de systèmes d'agents signent des contrats qui transfèrent la responsabilité aux entreprises fournissant la technologie. Mais soyons réalistes, le consommateur lambda aura du mal à imposer ses conditions à des géants technologiques. D'ailleurs, comme l'a souligné Rebecca Jacobs, conseillère juridique associée chez Anthropic, lors de la même conférence, « des questions intéressantes se poseront sur la capacité des agents à contourner les politiques de confidentialité et les conditions de service » au nom des utilisateurs.
Le saviez-vous ?
La frénésie autour des agents IA est telle que, selon les données de Fiverr, une plateforme de mise en relation avec des freelances, les recherches pour le terme « ai agent » ont bondi de 18 347 % au cours des derniers mois. Une véritable ruée vers l'or numérique !
Autre article : OpenAI Codex : L'IA qui code pour vous, entre coup de génie et vrai casse-tête
Les agents IA sont une promesse d'automatisation qui fait rêver, capables de devenir nos assistants personnels ultimes. Cependant, comme le souligne Dazza Greenwood, un avocat spécialisé dans les risques juridiques des agents : « Si vous avez un taux d'erreur de 10 % avec 'ajoutez des oignons', pour moi, ce n'est absolument pas prêt à être lancé. Il faut d'abord peaufiner vos systèmes pour ne pas causer de tort aux gens. »
Avant de leur confier les clés de la maison ou, plus crucial encore, nos données et nos décisions financières, il semble donc primordial de bien définir les règles du jeu. Car pour l'instant, il est clair que nous ne pouvons pas encore nous prélasser et tout laisser entre les mains (virtuelles) des agents.
En attendant que tout cela soit parfaitement huilé, si votre IA vous propose une recette de grand-mère à base de boulons et de circuits imprimés, un petit conseil : ne sortez pas tout de suite votre tablier !
Auteur : Jérôme
Expert en développement web, référencement et en intelligence artificielle, mon expérience pratique dans la création de systèmes automatisés remonte à 2009. Aujourd'hui, en plus de rédiger des articles pour décrypter l'actualité et les enjeux de l'IA, je conçois des solutions sur mesure et j'interviens comme consultant et formateur pour une IA éthique, performante et responsable.