Амодеи далеко не единственный ИИ-разработчик, который сам боится разрабатываемой технологии (у "Антропик" это нейросеть "Клод").
Глава "OpenAI" (Чат ГПТ) Сэм Альтман видит опасность в том, что ИИ захватит контроль более-менее случайно: люди будут всё больше полагаться на советы ИИ во всём, и это приведёт к утрате контроля над ситуацией.
Мультимиллиардер Илон Маск весной 2023 года подписывал открытое письмо с призывом остановить обучение нейросетей, но поскольку это не помогло, сам занялся разработкой ИИ ("Грок") и теперь призывает быть оптимистами, поскольку, по его словам, для качества жизни лучше быть оптимистом и ошибиться, чем пессимистом, и оказаться правым. Тем не менее, даже несмотря на заявленный оптимизм и совет "не копить на пенсию, потому что это не будет иметь значения", Маск предрекает человечеству "экзистенциальный кризис", когда оно станет второстепенным.
Ещё один разработчик ИИ Илья Суцкевер (он был сооснователем "OpenAI") считает, что для нивелирования опасности человечеству придётся слиться с искусственным интеллектом - например, посредством вживления себе чипов.
Нобелевский лауреат Джеффри Хинтон (занимался разработкой ИИ в компании "Google") полагает, что самая простая вероятность, как ИИ может выйти из-под контроля, - это получение им возможности устанавливать собственные подцели для достижения целей. Обретение контроля - очень удобная подцель для движения к любой цели. "И мы не сможем просто отключить их, агенты ИИ будут очень легко манипулировать людьми, которые их используют, мы будем как трёхлетние дети, а они будут как взрослые", - считает учёный.