Российские исследователи обнаружили, что искусственный интеллект уже стал "самым популярным инструментом недобросовестного поведения в учёбе". Его используют уже почти 90% студентов, причём почти 30% делают это часто; недобросовестно действуют во время письменных работ более 80% опрошенных. Учёные пришли к такому выводу в рамках социального опроса, в котором приняли участие более 500 студентов из университетов Санкт-Петербурга, Казани, Уфы, Тюмени, Йошкар-Олы и других российских городов. Чаще всего нейросетями пользовались троечники и хорошисты (88-89%), а также студенты с низким уровнем успеваемости (40%). Из направлений чаще всего к ИИ прибегают студенты экономических специальностей.
Согласно исследованию, проведённому NewsGuard, генератор ИИ-видео OpenAI Sora может с лёгкостью обманывать не только людей, но и другие нейросети. Лишённое водяных знаков видео Sora не смогли определить xAI Grok (95% неправильных ответов), OpenAI ChatGPT (92,5%) и Google Gemini (78%). Причём ChatGPT является продуктом того же разработчика, что и Sora. Гарантией правильного ответа не стали даже водяные знаки: Grok не распознал созданные ИИ видео в 30% случаев, ChatGPT — в 7,5%. Впрочем, водяные знаки уже могут быть с лёгкостью удалены.
Например, относительно созданного искусственным интеллектом видео задержания подростка миграционной службой чат-боты заявили, что сцена либо соответствует, либо подтверждена «новостными источниками», а инцидент произошёл на границе США с Мексикой. Подлинность созданного ИИ видео чат-боты подтвердили и в сцене, где сотрудник авиакомпании якобы высаживает с борта самолёта пассажира за кепку с политическим лозунгом.