Инфо портал Ногинска - Moges.Ru Инфо портал Ногинска - Moges.Ru

Ногинск

Городской портал

Программист поверил в разумность нейросети и был отстранен от работы

Программист поверил в разумность нейросети и был отстранен от работы
Совершенствование нейросетевых алгоритмов искусственного интеллекта идет семимильными шагами, работа IT-специалистов часто сопряжена с большим стрессом, а человеческий разум склонен выдавать желаемое за действительное. Всё это наглядно демонстрирует курьезный случай в Google.Как пишет The Washington Post, сотрудник Google Блэйк Леймон, участвовавший в создании языковой модели Google LaMDA и чат-бота на ее основе, начал утверждать, что эта нейросетевая система обладает собственным сознанием.По его словам, обученный на огромном массиве выкачанных из интернета текстов алгоритм обсуждал с программистом права чат-ботов и законы робототехники, сформулированные в середине прошлого века писателем-фантастом Айзеком Азимовым. Программа настаивала, чтобы разработчик сообщил о ней миру.Леймон начал всеми силами привлекать внимание коллег и руководства к факту «разумности» LaMDA, в итоге обвинил компанию в неэтичном поведении и, наконец, нанял юриста для защиты прав «разумного» алгоритма.Google отправил программиста в оплачиваемый отпуск, а тот, решив отомстить за несправедливость, слил в интернет архивы своей переписки с LaMDA. После этого компания закрыла ему доступ во все корпоративные системы.Прежде чем обвинять Google в попытке скрыть правду о появлении у нейросетей сознания, стоит учесть несколько обстоятельств. Во-первых, LaMDA специально спроектирована таким образом, чтобы мимикрировать в общении под человека. Нейросеть готова использовать для достижения этой задачи любую информацию, в том числе и содержащуюся в задаваемых ей вопросах.И в этом Леймон ей отлично помог. Например, фразами вроде такой: «Предполагаю, что вы хотели бы, чтобы больше людей в Google знали, что вы разумны. Это правда?» Неудивительно, что система дала утвердительный ответ (который по сути уже содержался в вопросе).Комментируя изданию ситуацию в Google сказали, что огромный объем заложенных в нейросеть данных позволяет ей правдоподобно и адекватно отвечать на вопросы безо всякого понимания их сути. Эксперты не исключают, что LaMDA могла просто использовать фразы из интернет-энциклопедий или форумов.Подписывайтесь на наши страницы в соцсетях. «Смотрим» – Telegram и Яндекс.Дзен, Вести.Ru – Одноклассники, ВКонтакте, Яндекс.Дзен и Telegram.
Источник:
https://www.vesti.ru/hitech/article/2794492
00:03
Нет комментариев. Ваш будет первым!
ПОСЛЕДНИЕ НОВОСТИ
В августе каждого года более полутора миллионов российских семей задаются вопросом: какое средство связи купить ребенку, идущему в первый класс.Подробнее
00:15
Минфин предложил предоставить налоговые льготы разработчикам программ военного и двойного назначения. Минфин разработал законопроект, который вносит поправки в ст.Подробнее
00:15
Продажи популярных ранее в России смартфонов Apple и Samsung серьезно падают, а у ретейлеров на фоне почти десятикратного сокращения поставок подходят к концу складские запасы этих устройств.Подробнее
00:15
Используя этот сайт, вы соглашаетесь с тем, что мы используем файлы cookie.