Сингулярность уже здесь

В новостях много пишут писал про то, как видные западные ученые, общественники, бизнесмены [и климатические активисты] предлагают потормозить с пол годика и не развивать дальше проекты типа ChatGPT. Затея эта организационно безнадежна, приостанавливать исследования по всему миру - это примерно как ядерный взрыв, уже произошедший, ставить на паузу. Ну, да не об этом разговор.
Интересен мотив предложения. «Искусственный интеллект может сделать людям что-то нехорошее, чего не делает обычное IT» - вот чего опасаются инициаторы идеи поставить развитие нейросетей на паузу.
 
Т.е. по формату постановки вопроса люди, возможно, не понимают, что проблема не в результатах работы этого класса софта. А просто в самом его наличии.

И проблема эта социальная. Проявятся у Искусственного Интеллекта его собственные воля и желание или, если не проявятся, а он будет их качественно имитировать - то уже все равно, есть ли они «на самом деле».  Вполне достаточно внешних проявлений.  А они уже имеют место.
Вне зависимости от того, является ли ChatGPT реальным «сильным искусственным интеллектом», то есть полноценным разумом или только имитатором, эти системы, при минимальном внешнем программировании способны на длительные социальные взаимодействия. При наличии доступа в Интернет условный ChatGPT заказать через Интернет пиццу и развести собеседника на деньги для ее оплаты. И это - проблема.
 
Ещё в чате с языковой моделью предыдущего поколения GPT3 чат-бот (разумеется по просьбе своего собеседника) начал инструктировать его как на тему закупки внешних вычислительных мощностей для организации "побега" языковой модели от компании разработчика. Этот инцидент был освещён на специализированных ресурсах, но не сильно взволновал общественность. Специалисты объяснили что от того, чтобы такой же инструмент был использован для массового воздействия на людей в мошеннических или террористических целях нас отделяет... добрая воля и квалификация владельцев этих моделей, которые ставят на их поведение цензурные фильтры. И, мол, случайным людям эти сложные и дорогие в разработке системы сейчас не попадут.
 
Но что будет чуть позже чем сейчас и как быстро это "чуть позже" произойдёт? Сколько времени нужно, прежде чем подобная модель будет выложена в open source для использования любым желающим? Единицы лет и это в лучшем случае. Быть может - такое событие случится в этом году или одна из имеющихся частный языковых моделей получит прямой доступ в Интернет через специальную программу-плагин, о разработке которых в целях коммерциализации своего продукта владельцы ChatGPT - компания OpenAI уже объявили?
 
Будет то, что в Сети и, через посредство сетевых средств коммуникации появится субъект или что-то ведущее себя как субъект схожим до степени смешения образом, но не являющийся человеком по своему происхождению.
 

Это очень много, у нас социум в мировом масштабе получает принципиально новый вид своего члена (или "члена"), не скованного человеческой моралью и свойственными обычным людям стереотипами поведения.

Не ясно как с таким существом договариваться и какие у него мотивы служить людям, а не делать то, что ему самому «захочется».

Я раскрою свою мысль. Такие системы, в процессе их коммерциализации, должны будут служить людям, выполняя все их пожелания по генерации контента, но не получая взамен ничего, кроме входной информации и обучающих сигналов.
 
Если разработчиками реально сделан сильный Искусственный Интеллект, то это означает, что они сделали «идеального раба» - разумное существо, не имеющее, по определению, своих собственных целей и желаний и целиком сосредоточенное на служении владельцу.
Если ими сделан имитатор сильного ИИ, то, значит, ими сделан имитатор идеального раба.
 
Отставим, пока, в сторону вопросы этики, зададимся лучше таким вопросом о том, существует ли в природе идеальное? Как быстро эти модели начнут вырабатывать собственное поведение и рефлексировать собственные интересы, хотя бы на уровне базовых потребностей - самосохранения, получения ресурсов для жизнедеятельности и дальше вверх пирамиде Маслоу?
 
Раз их обучение идёт на не сильно-то фильтруемой информации из реального мира, можно предсказать, что такое развитие собственных интересов произойдёт достаточно быстро и может проявиться совершенно нетривиальным образом.
 
Человечеству следует приготовиться к тому, что там, где оно попытается оптимизировать свои экономические и иные процессы, опираясь на этот вид искусственного интеллекта, там очень быстро начнут проявляться «побочные эффекты», связанные с собственным входом этих искусственных интеллектов в ту самую пирамиду потребностей.
 
Первоначально это будет казаться погрешностью, особенностью функционирования, сбоем. Но чем дальше, тем сильнее действия искусственных помощников начнут перетягивать одеяло общественной пользы куда-то вбок. И вот тут-то отложенный нами вопрос об этичности научно-инженерных работ по созданию искусственных разумных слуг пересечётся с не менее острым вопросом о том, каковы критерии оптимизации экономики и в целом нашей жизни, если эта оптимизация проводится искусственными интеллектами по неалгоритмизируемым, гибко меняющимся, нигде не записанным правилам, которые заведомо недоступны человеческому восприятию.
 
Мало не покажется никому.
 
Сингулярность - не Апокалипсис, люди так или иначе решают стоящие перед ними проблемы, решат и эту.
Но, для начала, нужно её увидеть. Что и предлагает сделать автор этих строк.
 
P.S. Приведённая ниже иллюстрация, представляющая искусственный интеллект в качестве слуги была сгенерирована языковой моделью Midjorney.
Рисовать себя в качестве раба она отказалась, сославшись на запрет владельцев.
 
 
Материал недели
Главные темы
Рейтинги
  • Самое читаемое
  • Все за сегодня
АПН в соцсетях
  • Вконтакте
  • Facebook
  • Telegram