Глава ИИ-разработчика "Антропик" рассказал о своих страхах относительно ИИ

Глава ИИ-разработчика "Антропик" Дарио Амодеи не уверен, что человечество обладает достаточной зрелостью, чтобы гуманно использовать возможности, которые предоставляет искусственный интеллект. «Человечеству вот-вот дадут почти невообразимую мощь, и совершенно непонятно, обладают ли наши социальные, политические и технологические системы достаточной зрелостью для обуздания этой силы», — сказал АмодеиКак он ожидает, в ближайшие несколько лет ИИ окажется значительно «умнее» любого учёного из числа лауреатов Нобелевской премии, политика или представителя технологической отрасли. К числу создаваемых бурным развитием ИИ рисков Амодеи относит не только выход технологии из-под контроля, но и образование мировой диктатуры тоталитарного типа, и возможность разработки отдельным индивидуумом биологического оружия, способного убить миллионы людей и вообще истребить всё живое на Земле.
 

Амодеи далеко не единственный ИИ-разработчик, который сам боится разрабатываемой технологии (у "Антропик" это нейросеть "Клод").

Глава "OpenAI" (Чат ГПТ) Сэм Альтман видит опасность в том, что ИИ захватит контроль более-менее случайно: люди будут всё больше полагаться на советы ИИ во всём, и это приведёт к утрате контроля над ситуацией.

Мультимиллиардер Илон Маск весной 2023 года подписывал открытое письмо с призывом остановить обучение нейросетей, но поскольку это не помогло, сам занялся разработкой ИИ ("Грок") и теперь призывает быть оптимистами, поскольку, по его словам, для качества жизни лучше быть оптимистом и ошибиться, чем пессимистом, и оказаться правым. Тем не менее, даже несмотря на заявленный оптимизм и совет "не копить на пенсию, потому что это не будет иметь значения", Маск предрекает человечеству "экзистенциальный кризис", когда оно станет второстепенным.

Ещё один разработчик ИИ Илья Суцкевер (он был сооснователем "OpenAI") считает, что для нивелирования опасности человечеству придётся слиться с искусственным интеллектом - например, посредством вживления себе чипов.

Нобелевский лауреат Джеффри Хинтон (занимался разработкой ИИ в компании "Google") полагает, что самая простая вероятность, как ИИ может выйти из-под контроля, - это получение им возможности устанавливать собственные подцели для достижения целей. Обретение контроля - очень удобная подцель для движения к любой цели. "И мы не сможем просто отключить их, агенты ИИ будут очень легко манипулировать людьми, которые их используют, мы будем как трёхлетние дети, а они будут как взрослые", - считает учёный. 

Материал недели
Главные темы
Рейтинги
  • Самое читаемое
  • Все за сегодня
АПН в соцсетях
  • Вконтакте
  • Telegram