Авто Признание & Влияние Доктор Питер Афиша Plus
18+
Проекты
JPG / PNG / GIF, до 15 Мб

Я принимаю все условия Пользовательского соглашения

15:32 15.12.2019

Чат-бот «Тинькофф банка» предложил клиентке отрезать пальцы. В учреждении извинились за грубость, которой голосовой помощник набрался из открытых данных

С жалобой не неработающий в приложении сервис по входу с отпечатком пальца пожаловалась чат-боту клиентка «Тинькофф банка» Анна. Вместо помощи голосовой помощник Олег ответил: «Пальцы бы вам отрезать».

О проблеме клиентка кредитного учреждения сообщила в своих соцсетях.

Представители «Тинькоффа» оперативно отреагировали извинениями:

«Голосовой помощник у нас немного с характером и учится на открытых данных. Иногда такое проскакивает. Безусловно, не хотели причинять неудобств». Также сотрудники банка сослались на «своеобразный юмор» «Олега» и в шутку пообещали провести с ним беседу.


 


Так в комментарии РБК в банке уверили:

«Мы стараемся уберечь его от дурного влияния окружающего мира, но не всегда это получается. Мы провели разъяснительную работу с голосовым помощником, ему очень стыдно за свой ответ, он обещал так больше не делать».

До этого Олег уже попадал под «дурное влияние» и отвечал клиентам банка, например, «пососите потом просите». Эксперты, как пишет tjournal, связывают это с тем, что боты на основе нейросетей обучаются на постах в соцсетях или форумах. Так не раз с этим сталкивался Microsoft: в 2016 году твиттер-бот компании по имени Тау научился расистским высказываниям за сутки. В 2017 году чат-бот Zo обошёл цензурные фильтры и стал высказываться на темы религии и терроризма.

 

 

Читайте также
Яндекс.Рекомендации

Жильё в Санкт-Петербурге

    Работа в Санкт-Петербурге

      Наши партнёры

      СМИ2

      Lentainform

      Загрузка...

      24СМИ. Агрегатор