GigaChat-20B-A3B-instruct GGUF

Диалоговая модель из семейства моделей GigaChat, основная на ai-sage/GigaChat-20B-A3B-instruct. Поддерживает контекст в 131 тысячу токенов.

Больше подробностей в хабр статье и в карточке оригинальной instruct модели.

Добавление поддержки модели в:

  • llama-cpp-python (>=0.3.6)
  • ollama (>=0.5.5)
  • lm studio (>=0.3.6), вот небольшой гайд

llama cpp

Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:

./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_v1.5_bf16.gguf
Downloads last month
492
GGUF
Model size
20.6B params
Architecture
deepseek
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for ai-sage/GigaChat-20B-A3B-instruct-GGUF

Quantized
(12)
this model