Se um chatbot mente para você, a responsabilidade é da empresa que o criou. Então, dê um tempo para o chatbot e vá atrás do empregador dele, inclusive indo ao tribunal, se necessário!
Recentemente, Jake Moffatt processou a Air Canada por receber informações falsas e prejudiciais de seu chatbot, e agora a decisão foi a seu favor (via Mashável).
A situação ocorreu quando Moffatt tentava obter informações sobre como se qualificar para uma tarifa de luto para uma viagem de última hora para comparecer a um funeral. O chatbot da Air Canada forneceu informações incorretas, levando Moffatt a descobrir a política real da companhia aérea em seu site. Quando a Air Canada se recusou a emitir o reembolso prometido pelo chatbot, Moffatt levou a questão ao tribunal.
A Air Canada tentou argumentar que não era responsável pelas informações enganosas do chatbot, alegando que ele era uma “entidade jurídica separada”. No entanto, o tribunal canadense decidiu que a companhia aérea é responsável por todas as informações em seu site, independentemente se elas vêm de uma página estática ou de um chatbot.
Isso abre precedentes para que ações judiciais sejam movidas caso alguém seja enganado por um chatbot, resultando em uma situação interessante no futuro. Tempos interessantes à frente.