Ученые Марк Ридл и Брент Харрисон из технологического института Джорджии (США) придумали уникальную методику, как привить роботам человеческие ценности, такие как этика и мораль, пишет Рlanet-today.
Специалисты назвали свой способ “выравниванием ценностей”. Цель его сосотоит в чтении рассказов и историй, основой сюжета которых есть мораль и этика. Ученые считают, что искусственному интеллекту можно привить некоторые человеческие ценности, если читать им рассказы именно с поведенческим сценарием: плохие поступки героев должны быть наказаны, а хорошие – награждены. С помощью таких универсальных знаний роботы смогут в будущем отличать хороших героев от плохих.
Данная методика обучения этики и морали подходит не для всех роботов, а только для простых интеллектуальных агентов, которые умеют общаться с людьми.
bbabo.Net