Ученые уверены: современные БЯМ — тупик на пути к ИИ «человеческого» уровня
Прогресс больших языковых моделей (БЯМ) за последние годы во многом связан с архитектурой «трансформер». Это особый тип нейросети, созданный Google в 2017 году, который обучается на большом количестве текстовых данных, предоставленных людьми. Благодаря этой архитектуре модели могут создавать вероятные ответы на запросы, используя свои нейронные сети — наборы алгоритмов, имитирующих работу человеческого мозга. Чем больше информации получает модель, тем точнее становятся её ответы.
Однако...