Согласно новостному порталу Independent, в компании Microsoft извинились за крайне неуместные и заслуживающие осуждения высказывания бота для общения в Твиттере, который написал несколько сообщений в поддержку Гитлера и геноцида.
На прошлой неделе компания запустила на платформе Twitter программу с искусственным интеллектом Tay. Она должна была привлечь людей пообщаться с роботом, однако обманутый пользователями бот начал повторять за ними сообщения, одобрявшие взгляды Гитлера, а также геноцид и расизм.
Представители Microsoft и не подозревали о том, что люди обманом будут заставлять робота писать оскорбительные слова в социальной сети. Однако компания извинилась за поведение своего "подопечного".
Как сообщили в Microsoft, решение о запуске Tay было принято после успеха подобного робота XiaoIce в Китае. С ним пообщалось уже 40 миллионов человек, кроме того, однажды бот провел прогноз погоды на телевиденье.
bbabo.Net