|

Qwen1.5-110B: Первая 100B+ Модель из Серии Qwen1.5 Покоряет Бенчмарки

Визуализация мощной AI модели Qwen1.5-110B, анализирующей данные

Гонка гигантских языковых моделей (LLM) продолжает набирать обороты. И хотя Meta недавно установила высокую планку с моделью Llama3-70B, команда Qwen не остается в стороне. Их новый релиз Qwen1.5-110B 1, первый в серии с более чем 100 миллиардами параметров, демонстрирует впечатляющие результаты как в стандартных бенчмарках, так и в чат-тестах.

Qwen1.5-110B: Ключевые Особенности

Новая модель Qwen1.5-110B построена на той же архитектуре Transformer decoder, что и предыдущие версии серии Qwen1.5. Среди ее основных особенностей:

  • Grouped Query Attention (GQA), позволяющий эффективно использовать модель
  • Поддержка контекста длиной до 32 000 токенов
  • Многоязычность — работа с широким спектром языков, включая английский, китайский, французский, испанский, немецкий, русский, корейский, японский, вьетнамский, арабский и др.

Возросшее Качество Модели

Qwen провели серию тестов, сравнивая Qwen1.5-110B с ведущими LLM моделями — Meta Llama3-70B и Mixtral-8x22B. Результаты говорят сами за себя:

ТестQwen1.5-110BQwen1.5-72BLlama-3-70BMixtral-8x22B
MMLU80.477.579.577.8
TheoremQA34.929.332.035.9
GPQA35.936.336.434.3
Hellaswag87.586.088.088.7
BBH74.865.576.669.2
ARC-C69.665.968.870.7
GSM8K85.479.579.278.6
MATH49.634.141.041.7
HumanEval52.441.545.745.1
MBPP58.153.455.171.2

Новая 110B модель как минимум не уступает Llama-3-70B по базовым возможностям. При этом в Qwen не сильно меняли процесс пре- и пост-обучения, что говорит о ключевой роли увеличения размера модели.

Также Qwen1.5-110B продемонстрировала превосходные результаты в чат-тестах MT-Bench и AlpacaEval 2.0:

МодельMT-Bench Avg. ScoreAlpacaEval 2.0 Win Rate
Llama-3-70B-Instruct8.8534.40
Qwen1.5-72B-Chat8.6136.60
Qwen1.5-110B-Chat8.8843.90

Перспективы Развития и Интеграции

При работе с Qwen1.5-110B рекомендуется использовать инструменты и фреймворки из экосистемы Qwen1.5:

  • Transformers
  • vLLM
  • llama.cpp
  • Ollama
  • LMStudio
  • SkyPilot
  • Axolotl
  • LLaMA-Factory

Это позволит раскрыть потенциал модели и эффективно интегрировать ее в различные приложения от чат-ботов до поисковых систем и виртуальных ассистентов.

Выводы и Дальнейшие Планы

Qwen1.5-110B, самая крупная модель серии Qwen1.5 на сегодня, показала, что дальнейшее увеличение числа параметров все еще дает значимый прирост качества. При этом успех конкурентов демонстрирует и важность масштабирования данных для обучения.

Команда Qwen верит, что сочетание роста размерности моделей и объемов данных позволит добиться впечатляющих результатов в следующих релизах. С нетерпением ждем анонса серии Qwen2!

А пока рекомендуем разработчикам и исследователям присмотреться к Qwen1.5-110B. С ее мощью и многоязычностью открываются широкие перспективы для создания продвинутых NLP приложений и интеллектуальных систем нового поколения. Не упустите возможность оседлать эту волну!

*Деятельность Meta Platforms Inc. и принадлежащих ей социальных сетей Facebook и Instagram запрещена на территории РФ.

Ссылки

  1. https://qwenlm.github.io/blog/qwen1.5-110b/[]

Похожие записи