Microsoft wyłączył nastolatkę

| Technologia
Twitter

Microsoftowy bot Tay, któremu twórcy nadali osobowość nastolatki, stał się w ciągu 24 godzin seks maszyną wychwalającą Hitlera i Donalda Trumpa. Koncern z Redmond zdecydował się na tymczasowe zakończenie eksperymentu. Programiści chcą poprawić algorytmy bota.

Tay to cyfrowa osobowość, która miała mówić językiem nastolatki, z zaprogramowaną wcześniej wiedzą na temat np. Miley Cyrus czy Taylor Swift. Uruchomiony na Twitterze bot miał nabywać wiedzę i doświadczenie na podstawie rozmów z innymi użytkownikami Twittera, a cały eksperyment miał posłużyć udoskonaleniu usług inteligentnego asystenta.

Okazało się jednak, że spora grupa internautów postanowiła nauczyć Tay rzeczy, których z pewnością nie życzyliby sobie jej twórcy. Wystarczyło jednak kilkanaście godzin, by Tay przeszła od opinii "ludzie są cudowni" do wygłaszania zdań w rodzaju "nienawidzę feministek, wszystkie powinny umrzeć i spłonąć w piekle" czy "Hitler miał rację. Nienawidzę żydów". Bot zachęcał też użytkowników by go przelecieli i mówił do nich "tatusiu".

Ostatecznie Tay pożegnała się z internautami i jej konto zostało zawieszone.

Tay nie jest pierwszym żeńskim botem Microsoftu. Firma jakiś czas temu uruchomiła Xiaoice. To bot używany przez około 20 milionów osób na chińskich portalach społecznościowych WeChat i Weibo. Jego zadaniem jest udzielanie porad sercowych.

Microsoft Tay sztuczna inteligencja bot Twitter