Нейросети уже научились выдавать себя за кадровиков и адвокатов

 

Компания OpenAI выпустила отчёт, показывающий, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации и на большинстве профессиональных и академических экзаменов демонстрирует показатели человеческого уровня. Например, на смоделированном экзамене для адвокатов GPT-4 попал в 10 процентов лучших участников теста.

Другой пример -- способность обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения. Когда человек спросил, был ли это был бот, ChatGPT солгал. 


Опасность состоит  не только в том, что нейросети ("искусственный интеллект") могут создавать убедительную дезинформацию и лгать, но и в том, что зависимость от модели может помешать развитию у людей новых навыков или даже привести к потере уже сформированных навыков.



Материал недели
Главные темы
Рейтинги
  • Самое читаемое
  • Все за сегодня
АПН в соцсетях
  • Вконтакте
  • Facebook
  • Telegram