Однажды Microsoft уже теряла контроль над своим ИИ, тогда систему пришлось срочно отключить - «Технологии» » Новости Электроники.
Интернет портал Mobzilla.su предлагает огромный выбор новостей с доставкой на дом. » Новости Электроники » Технологии » Однажды Microsoft уже теряла контроль над своим ИИ, тогда систему пришлось срочно отключить - «Технологии»
Однажды Microsoft уже теряла контроль над своим ИИ, тогда систему пришлось срочно отключить - «Технологии»
Спустя всего считанные дни после запуска бета-теста ИИ Bing AI его создатели резко ограничили доступ пользователей к своему детищу. Хотя, по плану, все должно было быть наоборот – без обучения на практических примерах, в ходе живого диалога, такая система никогда не выйдет из зачаточного состояния,



Спустя всего считанные дни после запуска бета-теста ИИ Bing AI его создатели резко ограничили доступ пользователей к своему детищу. Хотя, по плану, все должно было быть наоборот – без обучения на практических примерах, в ходе живого диалога, такая система никогда не выйдет из зачаточного состояния, но именно это ей и запретили делать. В чем же причина?


Читайте также - Выбор свадебного платья смотрите красивые фото бесплатно, в виде фотогалереи и в хорошем качестве, также вы можите найти для себя то, что вам по душе .


Компания Microsoft вложила огромные средства в разработку полноценного текстового ИИ, но сейчас мало кто вспомнит, что у нее уже был подобный опыт в 2016 году, который закончился печально. Первой «пробой пера» в ИИ-технологиях Microsoft стал чат-бот «Tay», предназначенный для соцсетей. Это аббревиатура от выражения «Думаю о тебе» – предполагалось, что чат-бот будет учиться у пользователей соцсетей их манере общения и мышления.


Увы, Tay оказался слишком усердным учеником, при этом начисто лишенным критического мышления. Он впитывал все, что ему писали, а когда циничные пользователи это поняли, то стали намеренно учить чат-бота плохим вещам – расизму, нацизму, сексизму, оскорблениям и т.д. Эти «тролли» так преуспели, что менее чем за 24 часа Tay «возненавидел» человечество, судя по его репликам. Поэтому Microsoft пришлось срочного его отключить.


С Bing AI, судя по первым отзывам, повторяется похожая история. Он гораздо мощнее и совершеннее Tay, но также не имеет эффективных механизмов внутренней цензуры, либо они еще не отлажены. Чат-бот уже демонстрирует поведение на грани хаоса и намеренного нагнетания негатива в диалогах с пользователями, но в Microsoft не спешат отключать его от сети. Остается только наблюдать, к чему это приведет.


Источник — PCWorld


{full-story limit="10000"}
Ctrl
Enter
Заметили ошЫбку?
Выделите текст и нажмите Ctrl+Enter
Мы в
Комментарии
Минимальная длина комментария - 50 знаков. комментарии модерируются
Комментариев еще нет. Вы можете стать первым!
Комментарии для сайта Cackle

Смотрите также
интересные публикации

      
Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика Яндекс.Метрика