Qwen2.5-VL-7B-Instruct

これはQwen2.5-VL-7B-Instructの 1.56bit 量子化バージョンです。

モデル情報

  • 元のモデル: Qwen2.5-VL-7B-Instruct
  • 量子化手法: llama.cpp を使った IQ1_S
  • ビット数: 1.56 bit

使用方法

このモデルは .gguf 形式であり、llama.cppなどのツールで利用することが前提です。

Downloads last month
23
GGUF
Model size
7.62B params
Architecture
qwen2vl
Hardware compatibility
Log In to view the estimation
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support