Скорее всего, Alexa прочитала неудачную шутку на одном из форумов
Голосовой помощник Amazon снова оказался в скандальной ситуации. Во время взаимодействия с одним из пользователей Alexa посоветовала ему убить приемных родителей.
Причина неподобающего поведения программы — в сложности обучения нейронных сетей, уверяют разработчики Amazon. Научить помощника находить популярный и актуальный контент достаточно легко, но пока что алгоритмы не всегда могут определить, что можно говорить, а чего не стоит.
Вероятнее всего, Alexa нашла не слишком удачную шутку на одном из форумов на сайте Reddit и решила использовать ее для ответа на запрос пользователя.
Для того чтобы обучить программу, основанную на нейронных сетях, требуется прогнать через нее огромное количество информации. На основе многих терабайтов данных искусственный интеллект строит свои ответы.
Сегодня технология машинного обучения используется в самых разных сферах — от научных исследований до рекламы. Своих умных помощников на основе машинного обучения разрабатывают технологические гиганты, в числе которых Apple, Microsoft, Google и Amazon. Пока что такие программы можно поставить в тупик даже не самым сложным вопросом. Поэтому разработчики не могут полностью полагаться на нейросети, и на некоторые наиболее частые вопросы ответы придумывают специалисты компании.
Умные колонки Echo со встроенным помощником от Amazon сегодня являются очень популярными, а с количеством продаж растет и количество неприятных для компании случаев. Например, на прошлой неделе стало известно, что в результате ошибки один из пользователей получил доступ к 1700 аудиофайлам, принадлежащим другому человеку. Похожий случай произошел в мае, когда колонка записала приватный разговор своего пользователя и послала постороннему человеку.
Поделитесь этим с друзьями!
Будьте первым, кто оставит комментарий
Пожалуйста, авторизируйтесь для возможности комментировать