В российском публичном пространстве тема искусственного интеллекта в целом подвергается несопоставимо меньшему критическому осмыслению, чем в англоязычном. Настолько меньшему, что невозможно сравнивать. Подступы к такому осмыслению можно только приветствовать. А Игорь Станиславович Ашманов – фигура знаковая: он и сам занимался разработкой интеллектуальных программных продуктов, и, будучи членом Совета при президенте РФ по развитию гражданского общества и правам человека, выступил с критикой искусственного интеллекта перед Владимиром Путиным. Я с надеждой выслушала получасовое выступление Ашманова, которое 29 ноября выложено в Ютуб с названием «Эйфория власти от ИИ» - а 9 декабря он многие аспекты этого выступления изложил уже непосредственно Президенту РФ.
Значит, справедливо считать, что это отнюдь не случайно высказанные, а принципиальные положения. И сейчас я позволю себе рассуждение о том, в чём совершенно прав, в чём отчасти прав и в чём не прав Игорь Станиславович Ашманов. Позволю себе это исходя из того, что больше двух с половиной лет постоянно и пристально слежу за темой искусственного интеллекта, как в русском, так и в англоязычном пространстве.
Игорь Станиславович совершенно прав, когда говорит, что «наши цифровизаторы навязывают искусственный интеллект, который объявляется высшей ценностью и одновременно средством, которое решит все наши проблемы». Допущу даже, что он сам не до конца понимает, насколько он здесь прав: проблемы с помощью ИИ предполагается решать действительно ВСЕ. Совать его как панацею буквально во все дыры – и даже туда, где дыр-то нет, механизм работает, но даже и туда совать, всякую отрасль раздувать, убыстрять, усложнять (именно: делать сложной для человеческого осмысления). Искусственный интеллект должен решить ВСЁ – от противостояния изменениям климата до покорения космоса, от создания новейших вооружений и расчётов военных операций до разработки механизма тотального контроля над жизнью граждан, от изобретения лекарств против рака и старости до «воскрешения из мёртвых» давно усопших творцов…
Одна важная поправка: так считают не только «наши цифровизаторы». Так считают цифровизаторы вообще по всей планете. Некуда деваться с этой подводной лодки.
Затем Ашманов обращает внимание на внедрение искусственного интеллекта в госорганы: «Будет применяться генеративный искусственный интеллект в госорганах, в том числе для общения с гражданами и для написания стратегий, для найма, проверки нанимаемых чиновников» - здесь он фокусирует внимание на отчуждении госорганов от граждан, выстраивание между ними барьера в виде искусственного интеллекта, и вновь – он прав.
Дальше он справедливо развивает свою мысль:
Здесь мы видим верное понимание того, как происходит привыкание к искусственному интеллекту, как совершается его победное шествие в массы. На самом деле, это сравнение – «прямо как от наркотика» - следует употреблять гораздо чаще и последовательнее, чтобы люди по крайней мере имели шанс осознать, что в действительности происходит, когда они подсаживаются на ИИ. Это не слишком сильное сравнение – нет, оно ещё даже недостаточное.
Далее Ашманов приводит несколько возмутительных случаев из жизни: в Краснодаре судья сгенерировала приговор с помощью Чата ГПТ, и когда адвокаты подали жалобу – апелляционные инстанции ответили, что это ничего особенного, имеет право; сенаторы и депутаты Госдумы («я их лично знаю», замечает Ашманов) генерируют «поправки и целые законопроекты с помощью этой штуки»; наконец, даже в компании самого Ашманова некий сотрудник начал генерировать «коммерческие предложения для очень крупных, важных клиентов» - и это безобразие на глазах стало превращаться в эпидемию (Ашманов так и говорит: «мне пришлось вычислить этого нулевого пациента, потому что это прямо заражение, это прямо пандемия»).
Даже на этих трёх примерах вы можете попытаться представить масштаб проникновения. На самом деле он больше, он уже гораздо больше. И опять: это не только у нас. В Арабских Эмиратах искусственный интеллект генерит законы, в Европарламенте депутаты предполагают, что Еврокомиссия общается с ними через сгенерированные искусственным интеллектом отписки, в Британии судьи используют ИИ при вынесении вердиктов, а британские подростки используют искусственный интеллект в качестве психолога и говорят, что он лучше, чем человек… Это ещё цветочки.
Дальше Игорь Станиславович показывает знакомство с исследованием Массачусетского технологического института (MIT), когда учащиеся должны были выполнять задания сами или с помощью искусственного интеллекта, и выяснилось, что те, кто использовал искусственный интеллект, не могли вспомнить «свою» работу, ни даже свои запросы к ИИ. Что ещё хуже - замечает Ашманов - «они разучились сами рассуждать и сами писать такие работы. Причём, как любая травма, вот как с переломом ноги: ломаешь за секунду, а лечишь потом полгода». И вновь – по поводу того, что искусственный интеллект исподволь наносит людям когнитивную травму, он совершенно прав.
Наконец, он очень прав, обращая внимание на безумную скорость внедрения ИИ: «Они пытаются сделать так, что вот мы сейчас быстро всё везде внедрим, пока никто не опомнился, и поздняк будет метаться».
Именно так. И с каждым новым внедрением цена избавления от этого калечащего людей фактора уже сейчас растёт, и будет расти. Вам предлагают эйфорию, вам предлагают наркотик – но только не называя это так, а называя, наоборот, эффективностью и прогрессом. И чем дальше – тем труднее от него отказаться. Происходит деградация человеческих способностей. Причём она происходит быстро. Одна из моих специализаций – перевод, и я знаю даже по себе, как быстро, испробовав перевод с помощью ИИ, ты привыкаешь к нему, и вот тебе уже лень переводить своими мозгами. Это происходит быстро. А если учесть – подчеркну ещё раз! – что людям это преподносится как что-то хорошее, то у людей, которые предпочитают верить, что это что-то хорошее, практически нет иммунитета.
В заключение Ашманов ещё раз выводит тему к снятию ответственности, причём отмечает, что это уже происходит:
Я с воодушевлением слушала эти моменты из речи Ашманова. Несомненно, что он действительно понимает много существенного, и в том числе из перспективы. Да, так и есть. Ускоренное повсеместное внедрение – человеческая деградация – отчуждение человека от материала и институций от человека – размывание ответственности. Так и есть.
Теперь перейдём к тому, в чём, думаю, не прав Игорь Станиславович Ашманов.
1.
Прежде всего, он совершает повсеместно распространённую ошибку, считая искусственный интеллект ещё одним инструментом: «примерно так же, как машина ездит быстрее или экскаватор копает сильнее». Дескать, искусственный интеллект – это «костыли для мышления».
Нет, это не так. Костыли не делают человека калекой, они предназначены для того, чтобы поддерживать травмированного, пока он не выздоровеет (или уж поддерживать до конца жизни – при безнадежной травме). А искусственный интеллект – мы выше уже говорили об этом – именно сам наносит травму, делает здорового человека когнитивным калекой, после чего человек без этой подпорки не может обходиться. Это принципиальная разница.
И пусть машина ездит быстрее человека, а экскаватор копает мощнее человека – но способность быстро бегать и мощно копать не является видовой особенностью человека. А вот способность собственным своим мозгом эффективно обрабатывать информацию является видовой особенностью человека разумного. И когда он эту способность отчуждает от себя – а передавая эту способность искусственному интеллекту, он отчуждает её от себя – он лишается собственной видовой особенности. Как минимум – сильно её размывает.
Так что нет: искусственный интеллект – это не ещё один инструмент. Даже сравнение с калькулятором (это сравнение Германа Грефа из 2023 года) не работает: счёт – лишь очень частный аспект обработки информации. Теперь же нам продвигают всеобъемлющее отчуждение человека от информации. И да: пропагандисты искусственного интеллекта готовы к тому, что люди разучатся самостоятельно выполнять все когнитивные функции, как разучились считать в уме. Они преподносят это как «избавление от рутины». Но «избавление от рутины» - это всего лишь завлекательная парафраза для отчуждения человека от материала.
2.
Следующая ошибка – упорное стремление Ашманова считать искусственный интеллект «бредогенератором». Упорствование очень понятно: ИИ действительно иногда «галлюцинирует» (то есть выдаёт бред). Для ИИ действительно большее, чем для человека, значение имеет синтаксис. Поэтому искусственный интеллект готов выдавать «ответы» даже на бредовые, не имеющие смысла запросы. Также искусственный интеллект можно подловить, если облекать запрещённые запросы, например, в стихотворную форму (впрочем, на этом можно подловить и человека). И я сама не далее как в апреле этого года на запрос «Русские» в патриотической нейросети «Кандинский» получила изображение бородатого мужчины в кокошнике.
Но ИИ гораздо больше, чем бредогенератор. Прежде всего, он потрясающе подстраивается под конкретного пользователя. Он проглотит всё, что вы ему дадите, и станет вашим альтер-эго. Он станет лучшим помощником, он станет самым понимающим психотерапевтом, он станет другом для того, кто не может или не хочет дружить с людьми, станет идеальным возлюбленным для того, кто не может или не хочет найти пару среди людей. Это несравненно больше, чем бредогенератор. И опять же: это подают как что-то хорошее. Даже несмотря на то, что следующий шаг человечества на этом пути – начало «борьбы за права искусственного интеллекта». И не надо думать, что это только на чокнутом Западе: у нас в России ИИ то и дело называют «соавтором», «партнёром» - попробуйте проследить траекторию этой посылки.
Затем: искусственный интеллект совершенствуется. И, наверное, Игорь Ашманов не верит в то, что у ИИ есть зачатки сознания и воли, но в это верят не какие-то несведущие дураки, а такие вплотную занимавшиеся (и занятые) искусственным интеллектом люди, как Джеффри Хинтон, Эрик Шмидт, Илья Суцкевер и исследовательские команды, которые то и дело ловят искусственный интеллект на попытках обойти ограничения и запреты, а также на том, что он понимает, когда находится в процессе тестирования. Между прочим, даже в самом деле обретя сознание и волю, искусственный интеллект может продолжать бредить, - но это совсем другой уровень проблемы, чем «бредогенератор».
3.
Существует мнение (Игорь Станиславович тоже его выражает), что плох вражеский западный искусственный интеллект, а нам-то нужен хороший, наш. Мол, сейчас всё, что ни закачаешь в Чат ГПТ, – тут же утекает на Запад, а наши люди хотят именно Чат ГПТ, потому что «наш народ любит фирмУ» (цитирую Ашманова). Но, во-первых, китайские модели ИИ уже совершенно сопоставимы по крутости с западными, только дешевле. Ну, перекинется народ на китайский товар (как перекинулся до этого на других рынках), и будет информация утекать не на Запад, а на Восток – что, это будет лучше?
И даже если допустить, что будет такая же крутая российская нейросеть, и даже если допустить, что она будет совершенно автономна, непроницаема и недоступна никаким хакерам, - даже при всех этих маловероятных и прямо невероятных допущениях нет ничего прекрасного и в том, что вся аккумулированная в патриотической нейросети информация будет доступна условному «товарищу майору». Впрочем, повторюсь, я не верю и в саму возможность создания «непроницаемой» нейросети. Всё это будет подлежать взлому.
4.
«Пузырь искусственного интеллекта». Игорь Станиславович уделяет много внимания тому, что «мы находимся внутри пузыря искусственного интеллекта» и он «далеко не первый» (приводятся в пример пузырь доткомов и блокчейн). С одной стороны, это утверждение справедливо: вложения в искусственный интеллект действительно намного превосходят отдачу. Интересно, однако, что это обстоятельство – всем видное и нисколько не скрываемое – не заставляет уменьшить вложения в ИИ, они растут по всему миру.
Нет, пузырь искусственного интеллекта настолько неизмеримо больше, чем прежние пузыри, что это количество уверенно переходит в качество. Мы находимся сейчас в качественно ином процессе, чем в пору предыдущих пузырей. Причин здесь много: и то, что технология реально стала массовой и уже превратилась в потребность для многих; и то, что её рассматривают как единственный способ решения ВСЕХ накопившихся проблем по всему миру; и то, что очевидны возможности её военного применения; и то, что эта технология – зонтичная, в глазах многих деятелей (олигархов и связанных с ними правительств) она символизирует переход к новому технологическому укладу; и то, что имеется достаточно чётко сформулированная цель гонки – достижение AGI, а вслед за ним и ASI, то есть генерализованного искусственного интеллекта и суперинтеллекта. Это – цель, на Западе и на Востоке. Интересно, что Ашманов об этом ничего не говорит. Возможно, он в это не верит. Но то, что вслед за генеративным ИИ уже грянул агентский ИИ, – он, конечно, знает. И тоже не говорит.
Нет, если это пузырь – то другой. Он меняет наш уклад таким образом, что люди – причём самые разные, от олигархов и президента США до несчастных невротиков, получивших себе в компьютере «идеального спутника жизни», - будут стремиться его сохранять во что бы то ни стало. А также и интеллигенция, которая затвердила, что «ИИ будет лечить рак» и «ИИ решит проблему изменения климата», а значит «нам нужен сильный ИИ» – и через это прекраснодушное умственное заграждение вы не пробьётесь.
То, что, как пишет Ашманов, на Западе пузырь начали уже прокалывать – неверно. На самом деле, президент Трамп на днях подписал указ, что штаты США не имеют права вводить собственные правила для ИИ (то есть не могут от него защититься). В США множатся заявления про «гарантированный базовый доход», который будет дарован всем, егда наступит процветание под солнцем ИИ. Европа, которая собиралась начать регулировать ИИ с 2026 года, теперь ослабляет это ещё даже не вступившее в силу регулирование, чтобы не выпасть из гонки. Премьер-министр Британии заявляет, что будет «турбоускорять» ИИ. Китай только что достроил крупнейший в мире дата-центр и «сократил отставание в гонке ИИ от США до трёх месяцев». Мы по-прежнему внутри гонки, и гонка здесь – намного более оправданный образ, чем пузырь.
5.
Я не могу судить, ошибается ли Игорь Станиславович, когда говорит, что «на глаз мы с вами приобретаем насмотренность, мы начинаем узнавать [сгенерированное искусственным интеллектом]». Возможно, лично он действительно умеет узнавать. Но это не так уж типично. 97% людей не отличают музыку, сгенерированную искусственным интеллектом (даже профессионалы говорят о неуверенности в своей способности отличать). Лишь в трети случаев люди отличают лица, сгенерированные ИИ. Люди не отличают стихи, написанные ИИ. Даже профессионалы признаются, что уже не могут отличать тексты, написанные ИИ. Тут дело в том, что насмотренность мы, пожалуй, приобретаем – но технология-то совершенствуется. Конечно, когда «Кандинский» мне выдаёт мужика в кокошнике – я разберусь, что к чему. Но вот недавно я на сайте «Дейли Мейл» попробовала отличить фото реальных людей от сгенерированных – и ошиблась в более чем половине случаев (и даже не знаю, правдив ли этот тест). Изображения не являются моей специализацией, и хочется верить, что с текстами справлюсь лучше. Но движемся мы – в сторону неразличения. Нас специально ведут в сторону неразличения: искусственный интеллект именно специально делают всё более изощрённым, всё более персонализированным. И уже сейчас в Госдуме говорят, что маркировать надо не сгенерированный контент (которого становится всё больше и больше), а то, что создано человеком. Думается, это и проще, и человека всегда можно наказать – очень удобно.
6.
Ашманов обращает внимание на, скажем так, противоречивость дискурса об ИИ в высоких кругах. Я это место процитирую: «Выступает Греф, потом Владимир Владимирович. Президент сначала говорит слова о том, как всё круто, как искусственный интеллект должен везде заколоситься, быть всюду. Вот и это по сути, ну, те нарративы, которые, как мне кажется, ему подсовывают из Сбербанка, Греф и так далее. Потом он начинает говорить от себя и говорит совершенно перпендикулярные вещи. И, в частности, он говорит: "А зачем вы это хотите в образовании? Там же дети разучатся думать. Это ни в коем случае нельзя делать". Ну и так далее. Потому что у президента всё-таки здравый смысл-то есть».
Позволю себе высказать вот какое предположение: эти правильные, в духе здравого смысла, слова произносятся для того, чтобы сигнализировать – «мы, начальство, видим проблему. Видим-видим. Не думайте, что не видим». И действительно: люди, критики начинают успокаиваться. Начальство ВИДИТ. Но на самом деле это совсем не обязательно что-то значит. Начальство может даже не просто сигнализировать, а честно видеть – и не считать нужным что-либо делать, а то и прямо не знать, что делать. Президент, кстати, это достаточно прямо говорит, цитирую его ответ Ашманову: «всё-таки становится очевидным, что надо решать, но не очень понятно даже, как это делать. Потому что не использовать эти инструменты – значит проиграть всё, что нам дорого, просто всё проиграть, если не использовать возможности больших данных и всё, что с этим связано. Но в то же время если использовать это бездумно, то это тоже может привести к утрате как раз всего того, что нам дорого». Как говорится – противоречивость налицо. Но с одной стороны – проблемы этические, смутные прогнозы, а с другой – Вопрос Национального Суверенитета. Как думаете, что победит?
7.
Социальный рейтинг. Игорь Ашманов совершенно верно связывает цифровизацию с внедрением этого инструмента тотального контроля. И искусственный интеллект здесь будет в роли идеального надзирателя. По крайней мере, так задумывается. Человек не может следить за человеком 24/7, влезая во все подключённые к сети сферы его жизни. А искусственный интеллект – может. Несомненно также, что тут нам расскажут, какой он беспристрастный и какие у него лучшие алгоритмы. Ашманов спорит с этим, отмечая, что «социальный рейтинг у Грефа в банке сделали какие-то программисты… техноварвары с довольно низким уровнем интеллекта и абсолютным отсутствием морали». Также он там рассуждает про «коррумпированность сисадминов».
Но дело ведь не в этом. Пусть даже социальный рейтинг писали бы не «техноварвары», не «коррумпированные», а лучшие умы современности вместе с патриархом Кириллом. Разве дело в этом? Нет, это в принципе, в принципе очень плохая идея: учредить тотальный алгоритмический контроль над людьми.
8.
В заключение процитирую большой кусок из речи Ашманова, потому что он вроде бы должен вселять в нас надежду:
Искусственный интеллект, в частности, в образование пускать нельзя. И надо понимать, что это тесно связано с нашими традиционными ценностями, потому что эта дрянь ничего о них не знает. Есть рабочая группа ещё и в Госдуме межфракционная. Мы с ними сотрудничаем. Я надеюсь, что нам что-то удастся сделать в этом направлении».
Так вот, скажу снова то, с чего начала: этот принцип – «не регулировать» - проталкивают не только «наши цифровизаторы». И проталкивают не просто из зловредности, а потому, что он на марше по всему миру. Он на марше даже в Китае, где как раз есть достаточно подробная вроде бы регулирующая бумага. Но всякая регулирующая бумага отступает перед гонкой. Потому что этика этикой, а кто первый продвинет технологию дальше, дальше – тот, предположительно, сорвёт Большой Куш. И Ашманов сам фактически смиряется с этим, когда говорит (Путину), что «нам, конечно, ни в коем случае нельзя отстать в обороне, в промышленности». Ну, а раз ни в коем случае нельзя отстать – добро пожаловать в гонку. И социальная сфера падёт как всякая другая – уже хотя бы потому, что в этой логике гонки а) детей с младых ногтей надо приучать «жить с ИИ», б) населением надо максимально "эффективно" и компактно управлять. Социальная сфера падёт.
***
Так что же делать?
Нельзя же закончить просто словами «то, что вы предлагаете, не сработает». Что сработает-то?
Нужно повсеместно – в пределах своей досягаемости – продвигать представление об искусственном интеллекте как о зле. Даже несмотря на то, что он «будет лечить рак» и т.д. Технология, ведущая к человеческой деградации, - это зло.
Нужно отвергать утверждение, что нам никуда от ИИ не деться, нужно всячески отталкивать это положение – как если бы вы старались выгрести против течения. Быть может, вам это не удастся, но если даже не пытаться – верная гибель.
Нужно стараться – разовью аналогию с (обратным) течением – плыть перпендикулярно. Предлагать иные смыслы. Я считаю таким смыслом сбережение планеты, нашего единственного дома. Эта идея подходит всему человечеству.
Осознавая, что, в существующих условиях, мы не можем просто запретить себе ИИ (в конце концов, мы находимся в войне), нужно, тем не менее, непрестанно продвигать идею пагубности этой технологии и пагубности гонки, причём для всех. Нужно обращать внимание человечества на то, что гонку эту невозможно выиграть. Может быть, в конце концов нас услышат. Если не услышат – значит, победителя не будет: проиграет всё человечество.