matsuolab-weblab-10b-gguf

matsuo-labさんが公開しているweblab-10bのggufフォーマット変換版です。

llama.cppのexamplesで動かせます。 llama.cpp本家は開発速度が早く、clone先をブランチに変更しました。

Usage (試用)

git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./gptneox -m 'matsuolab-weblab-10b-q4_0.gguf' -n 128 -t 8 -p '吾輩は猫である。名前は実を言うと、' 
Downloads last month
143
GGUF
Model size
10.7B params
Architecture
undefined
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support