Большие языковые модели искусственного интеллекта, которые обучались на данных из популярного, но низкокачественного контента социальных сетей, продемонстрировали признаки деградации — сродни тем, что появляются у человека, к такому выводу пришли учёные.
«Мы живём в эпоху, когда объёмы информации растут быстрее, чем их может охватить внимание, и бо́льшая часть этой информации направлена на получение кликов, а не на то, чтобы донести истину или нечто глубокое. Мы подумали: а что, если на этом обучить ИИ?» — рассказал один из участников исследования Цзюньюань Хун. Чтобы выяснить это, учёные использовали материалы особого рода: «вовлекающие», то есть распространённые в соцсетях публикации, а также посты сенсационного или рекламного характера с оборотами вроде «Вау!», «Зацени!» или «Только сегодня!». Подвергшиеся такому воздействию модели продемонстрировали признаки деградации: снижение умственных способностей, способностей к рассуждению, а также ухудшение памяти. У них снизилось чувство этики и проявились признаки психопатии. Аналогичные исследования, проведённые с участием людей, давали схожие результаты.
Разработчики моделей - отмечают исследователи - могут предположить, что публикации в соцсетях — подходящий источник для обучения моделей. В действительности они ухудшают способность к рассуждению, качество этических оценок и способность удерживать внимание на долгосрочном контексте. Более того, изначально ослабленные материалами низкого качества модели впоследствии с трудом поддаются переобучению. Однако уже сегодня значительная часть предназначенного для вовлечения пользователя контента в соцсетях генерируется искусственным интеллектом.