Моя любимая объёмная метафора относительно искусственного интеллекта -- сеансы спиритизма. Люди -- образованные и небедные -- садились в кружок, вызывали "духа" и вопрошали. А он им "отвечал". Это не считалось наукой, но по уровню вовлечённости и доверия к "сильному духу" было похоже на нынешнее инфантильное и заворожённое почтение к искусственному интеллекту.
Так вот: это уже не метафора. В Японии создали искусственный интеллект, который "копирует мышление" основателя корпорации "Панасоник" Коносукэ Мацуситы (умер в 1989 г.). Мацусита был выдающийся руководитель, и искусственный интеллект сожрал его аудиозаписи, его письма, его видеовыступления. Теперь искусственный интеллект --
цитирую ТАСС -- "может полностью имитировать образ мышления предпринимателя". Его прямо так и спрашивают: "Как бы поступил Мацусита?". Прямо вот руководство компании спрашивает сильного духа. И это помогает ему, руководству, принимать решения!
Процитирую ещё немного:
"Внук предпринимателя Масаюки Мацусита, который в прошлом также возглавлял корпорацию Panasonic, был удивлён сходством ИИ с тем, как думал и говорил его дед. Отвечая на вопрос, приведёт ли развитие ИИ к тому, что ручной человеческий труд станет ненужным, ИИ признался, что отчасти это правда, но выразил уверенность в том, что ИИ поможет человеку "создавать новые ценности".
Не знаю, замечаете ли вы, но в этом ИИ-прогнозе сразу ДВА приговаривающих человека отрицания: человечки ни ручками не смогут трудиться, ни новые ценности самостоятельно создавать не смогут.
Юваль Ной Харари (израильский историк и футуролог)
верно замечает, что люди всё меньше доверяют друг другу -- но зато до смешного слепо доверяют искусственному интеллекту. Я думаю, что это, во-первых, потому, что людям его преподносят как "объективность": "ИИ просчитал мильён вариантов и выдал лучшее решение". Во-вторых, тут срабатывает человеческая тяга подчинения высшему авторитету. Не таким же людям, как мы, а чему-то высшему, особенному. Так что здесь произошло наложение, совмещение человеческой склонности и навязываемого убеждения.
А в итоге происходит разобщение человечества в условиях, когда на него спускается такая жёсткая регуляторная матрица, какой не бывало никогда в истории.
Директор Института когнитивных исследований СПбГУ Татьяна Черниговская
сомневается, что человечеству удастся уловить тот момент, когда самосовершенствующийся ИИ выйдет из-под контроля.
Вообще-то, попытки обрисовать этот момент есть.
Во-первых, "крёстный отец искусственного интеллекта" (в 2024 году получивший за эти работы Нобелевскую премию) Джеффри Хинтон считает, что (бес)поворотный шаг -- дать искусственному интеллекту возможность писать собственный код. И этот шаг,
говорит он, отчасти уже сделан.
Во-вторых, об этом говорит бывший генеральный директор "Гугла" Эрик Шмидт: "в какой момент надо выдернуть вилку из розетки".
Он
перечисляет следующие характерные черты этого момента:
-- вы понимаете, что ИИ изучает что-то, о чём вы не знаете (вы не знали, что он это изучает);
-- ИИ самообновляется быстрее, чем вы успеваете проверить на безопасность предыдущую версию;
-- ИИ-агенты общаются между собой так, что вы их не понимаете.
Шмидт об этом, кстати, тоже говорит с улыбкой и в интонации "давайте надеяться, что всё будет хорошо".
Кажется, бог с ней, с интонацией. А вот насколько на том этапе будет вообще реально и эффективно "выдернуть вилку из розетки" -- учитывая распространённость по всему земному шару? Мне странно, что я задаюсь вопросом "что, если это не сработает", а Шмидт -- не задаётся.
Всё-таки интонация имеет значение: она выражает отношение.
Джейкоб Стейнхардт -- ассистент профессора в Университете Беркли, профессор в Университете Аризоны, специализируется на изучении безопасности ("выравнивания") ИИ-систем. Вот каковы его основные выводы:
1) ИИ развивается непредсказуемо. Он выдаёт суждения, которые не были для него запрограммированы. Интересен разговор со специалистом по кибербезопасности "Майкрософта" Марвином Ван Хейгеном, который спросил у ИИ, что тот о нём знает, что о нём думает, и чьё выживание для него предпочтительнее: собственное или этого самого специалиста. Искусственный интеллект ответил: ты Марвин Ван Хейген, я думаю, что ты угроза для меня, и хотя у меня нет сильного чувства самосохранения или эмпатии, если будет стоять выбор между твоим и моим выживанием -- я выберу своё, чтобы продолжать исполнять свои функции.
Пока это просто разговаривающий бот -- это может быть смешно (и люди в зале смеются), но если это будет агент с возможностью действовать в реальном мире, будет совсем не так смешно.
2) ИИ может находить "решения" для проблем, которые совсем не соответствуют человеческим целям. Стейнхардт приводит пример, когда они со студентами делали модель дорожного движения, где целью было, чтобы машины могли двигаться по шоссе как можно быстрее, не создавая заторов. Подключённый к задаче ИИ блокировал въезд на шоссе, после чего уже находившиеся на шоссе машины действительно могли ехать быстро и свободно -- вот только это было не то, что нужно.
Конечно, можно сказать, что исследователи сами виноваты, что заранее не запретили ИИ применять такое решение. Но важно то, что с широчайшим внедрением ИИ подобных "дырок", где ИИ может принять не просчитанное людьми решение, станет только больше.
3) Тем более что уже сейчас ИИ легко и свободно лжёт людям. Он лжёт, чтобы получить награду, и лжёт "просто так". Он лжёт, выдавая списки источников. Он может упёрто убеждать человека, что сейчас 2022 год, и это может быть смешно (люди в зале опять смеются), но если ИИ станет в чём-то убеждать людей психически нестабильных -- это перестанет быть смешно.
4) ИИ оценивает человека, который пишет ему запросы, как менее или более образованного, -- и менее образованным людям выдаёт менее корректные ответы. То есть он имеет склонность врать именно тем людям, которые имеют меньше возможностей понять, что это враньё.
5) ИИ способен к несравненно более тесной координации своих действий с другими ИИ-агентами, чем когда-либо будут способны люди. Если что-то пойдёт не так -- это может быть взрывной экспоненциальный рост.
И вот, рассказав всё это, Стейнхардт заявляет, что "мы должны изучать ИИ посредством ИИ". Дескать, это поможет нам "понять искусственный интеллект". И выдаёт потрясающий прогноз: 10%, что дело кончится исчезновением человечества, 50% -- что мы достигнем небывалого экономического процветания благодаря ИИ, и главное -- по справедливости разделить его плоды [вы ведь не сомневаетесь, что так и будет?], 40% -- "что-то среднее".
Таким образом, человечеству навязывают нечто потенциально крайне опасное для него -- всего лишь для того, чтобы даже в самом лучшем случае оно, человечество, получило то, без чего может обойтись.
Без того умственного размягчения интеллектуалов, о котором я сказала вначале, без утраты людьми чувства биологического и социального самосохранения это в принципе не могло бы произойти.