Air Canada est tenue responsable d’une réduction que son chatbot a promise par erreur à un client, a rapporté le Washington Post.
La compagnie aérienne doit rembourser un passager, Jake Moffat, qui a acheté il y a deux ans des billets d’avion pour assister aux funérailles de sa grand-mère, estimant que s’il payait le prix fort, il pouvait à terme déposer une réclamation dans le cadre de la politique de deuil de la compagnie aérienne pour bénéficier d’une réduction, selon une décision du Tribunal de résolution civile (CRT) du Canada. Ce n’est pas lui qui a inventé l’idée, mais un chatbot d’assistance (un robot) avec lequel il communiquait sur le site Web d’Air Canada. Il lui a fourni de fausses informations, ce qui a finalement coûté plusieurs centaines de dollars à la compagnie aérienne.
En novembre 2022, lorsque Moffat a dépensé plus de 700 $ (CAD), taxes et frais supplémentaires compris, pour un billet le lendemain de Vancouver à Toronto. Un chatbot sur le site d’Air Canada lui avait dit que la compagnie aérienne lui rembourserait partiellement le prix du billet dans le cadre de sa politique de deuil, à condition qu’il demande le remboursement dans les 90 jours, selon le document du tribunal. Moffat a également dépensé plus de 700 $ (CAD) pour un vol aller-retour quelques jours plus tard, argent qu’il a affirmé qu’il n’aurait pas dépensé si on ne lui avait pas promis un rabais plus tard.
Mais les informations qu’il a reçues du chatbot de support d’Air Canada étaient erronées. En vertu de la politique de la compagnie aérienne en matière de voyages en cas de deuil, les clients doivent demander des tarifs réduits en cas de deuil avant de voyager, a déclaré la compagnie aérienne au tribunal. « La politique en cas de deuil n’autorise pas le remboursement des voyages déjà effectués. Notre politique est conçue pour offrir une flexibilité maximale sur votre prochain voyage pendant cette période difficile », indique la compagnie aérienne sur son site. Moffatt a ensuite demandé un remboursement partiel du coût total de son voyage dans les 90 jours suivant l’achat spécifiés par le chatbot, en fournissant les documents requis, y compris le certificat de décès de sa grand-mère, selon sa réclamation.
Après une correspondance continue entre Moffatt et Air Canada, par téléphone et par courrier électronique, la compagnie aérienne l’a informé que le chatbot s’était trompé et ne lui a pas accordé de remboursement, selon le document du tribunal. Moffatt a ensuite déposé une réclamation auprès du CRT pour un montant de 880 $ (CAD), ce qui, selon lui, était la différence entre les tarifs réguliers et présumés en cas de deuil.
Devant le tribunal, la compagnie aérienne a tenté d’éviter toute responsabilité, qualifiant le chatbot d’ « entité juridique distincte responsable de ses propres actions ». Lors de l’audience, le voyageur avait indiqué qu’il n’aurait pas pris de billets s’il avait su qu’il fallait payer autant, ce que le tribunal a reconnu, mettant à mal l’argument de la compagnie selon lequel Jake Moffat aurait dû se renseigner davantage au sujet de cette fausse réduction: « Il n’y avait aucune raison pour que M. Moffat sache qu’une section du site internet d’Air Canada était exacte et qu’une autre ne l’était pas », a écrit le tribunal dans son jugement. La compagnie aérienne a également fait valoir qu’une version exacte de sa politique était toujours présentée sur son site Web. Le chatbot a été désactivé. Le jugement du tribunal pourrait créer un précédent en obligeant les entreprises à rendre des comptes lorsqu’elles s’appuient sur des outils technologiques interactifs, notamment l‘intelligence artificielle générative, pour assumer des fonctions de service client.
Bencello a commenté :
20 février 2024 - 11 h 30 min
L’histoire ne dit pas si le chatbot a été licencié suite à cette bourde, et/ou remplacé par une LaetitIA plus prudente dans ses déclarations.
Byzance a commenté :
20 février 2024 - 14 h 28 min
Il s’agissait d’Olivia ?
Zeph a commenté :
21 février 2024 - 14 h 09 min
Olivia a un contrat béton avec AJ…