matsuolab-weblab-10b-gguf
matsuo-labさんが公開しているweblab-10bのggufフォーマット変換版です。
llama.cppのexamplesで動かせます。 llama.cpp本家は開発速度が早く、clone先をブランチに変更しました。
Usage (試用)
git clone --branch mmnga-dev https://github.com/mmnga/llama.cpp.git
cd llama.cpp
make -j
./gptneox -m 'matsuolab-weblab-10b-q4_0.gguf' -n 128 -t 8 -p '吾輩は猫である。名前は実を言うと、'
- Downloads last month
- 143
Hardware compatibility
Log In
to view the estimation
4-bit
5-bit
8-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support