Politique en matière de cookies

Afin de vous offrir une service optimal, ce site utilise des cookies.
En utilisant notre site, vous acceptez notre utilisation des cookies. En savoir plus

Conseils trompeurs d’un assistant virtuel: Air Canada est jugée responsable


Conseils trompeurs d’un assistant virtuel: Air Canada est jugée responsable
[Air Canada]

Une décision rendue mercredi par un tribunal des petites créances fait la manchette en Colombie-Britannique.

Alors que l’assistant virtuel (« chatbot ») d’Air Canada avait donné des conseils trompeurs à un client, la société a tenté de nier sa responsabilité.

Comme le rapporte CBC News, Air Canada aurait plutôt tenté de faire porter la responsabilité sur son outil en ligne piloté par l'intelligence artificielle – affirmant même que son propre chatbot était « une entité juridique distincte qui est responsable de ses propres actions » !


LIRE PLUS – Air Canada a atteint ses objectifs financiers et stratégiques en 2023, dixit Michael Rousseau  


« Un argument remarquable… »

Cette défense n'a pas exactement convaincu le tribunal…

« Il s'agit d'un argument remarquable », s’est étonné Christopher Rivers, membre du Tribunal de résolution des litiges civils (CRT).

« Bien qu'un chatbot ait une composante interactive, il n'est toujours qu'une partie du site web d'Air Canada. Il devrait être évident pour Air Canada qu'elle est responsable de toutes les informations figurant sur son site web. Que ces informations proviennent d'une page statique ou d'un chatbot ne fait aucune différence. »

La compagnie aérienne a été condamnée à verser une indemnité au client.


Mauvais conseils sur les tarifs pour les personnes en deuil.

Plus précisément, rapporte CBC News, Air Canada a été condamnée à verser 812 $ au passager en deuil Jake Moffatt à qui le chatbot avait conseillé d'acheter des billets d'avion à plein tarif, alors qu’il était éligible aux tarifs de la compagnie pour les personnes en deuil.

Ce montant couvre la différence entre le tarif auquel il avait droit à la suite du décès de sa grand-mère et celui qu’il a payé au plein tarif (1630,36 $) pour ses vols au départ et à destination de Toronto.

Selon une capture d'écran rendue publique, le chatbot de la compagnie aérienne avait informé M. Moffat qu’il pouvait demander le tarif pour personne en deuil dans les 90 jours suivant la date d'émission de son billet.

Or, lorsque le passager a contacté Air Canada après son retour pour se faire rembourser, on lui a répondu que les tarifs pour décès ne s'appliquaient pas aux voyages accomplis – ce qui est d’ailleurs spécifié dans une autre partie du site Web d'Air Canada.

Bref, le chatbot était dans l'erreur, ce qu’un représentant d'Air Canada aurait d’ailleurs confirmé à M. Moffat.

Dans sa décision, Christopher Rivers a toutefois estimé qu'Air Canada « n'a pas pris de précautions raisonnables pour s'assurer que son chatbot était exact ».

Selon l'Institut canadien d'information juridique (Canadian Legal Information Institute CanLII), il s'agit de la première décision juridique majeure au Canada concernant des conseils trompeurs donnés par des chatbots.

Cité par La Presse canadienne, Ira Parghi, un avocat spécialisé dans le droit de l'information et de l'IA, a indiqué que les entreprises qui s'appuient sur des systèmes d'IA doivent faire attention à ce qu'elles incluent dans leurs services – et s'assurer que les informations sont exactes.





Pour toute l’actualité du voyage : abonnez-vous à PAX. Suivez-nous sur FacebookLinkedIn et Twitter.



Indicateur