В феврале этого года, группа учёных из Университета Васэда (Япония) выяснила, что невежливые вопросы снижают качество ответов больших лингвистических моделей вроде «ChatGPT».
Для эксперимента, учёные писали вежливые и невежливые промпты на английском, китайском и японском языках. В качестве универсальных лингвистических моделей, использовали GPT–4 и GPT–3.5. Но также, для запросов на английском, обращались к Llama2–70B, на китайском — к ChatGLM3, на японском — к Swallow–70B.