🇹🇷 Gemma-3 Fine-Tuned (Flutter Dataset - Turkish) | GGUF (Q8_0)
Bu model, Google'ın Gemma-3 mimarisi üzerine inşa edilmiştir ve Türkçe Flutter programlama veri kümesi üzerinde fine-tune edilmiştir. Model, Unsloth
kullanılarak quantize edilip GGUF formatında (Q8_0) dışa aktarılmıştır.
🧠 Model Özeti
- Base Model:
google/gemma-1.1-2b-it
- Fine-Tune Dataset:
NoirZangetsu/Flutter_Dataset_Turkish
- Quantization: Q8_0 (8-bit)
- Format: GGUF (Uyumlu:
llama.cpp
,text-generation-webui
,koboldcpp
,ollama
) - Boyut: 4.1 GB
🛠 Eğitim Detayları
- Eğitim Aracı:
Unsloth
+DeepSpeed
- Quantize Edici:
Unsloth GGUF Converter
- Donanım: A100 40GB (Google Colab Pro+)
- Tokenizer:
Gemma
tokenizer - Chat Template ayarları uygulanmıştır (BOS, EOS tokenlar optimize edilmiştir)
🚀 Kullanım (llama.cpp ile)
./main -m gemma-3-finetune.Q8_0.gguf -p "Flutter'da StatelessWidget nedir?"
veya text-generation-webui
ile models
klasörüne .gguf
dosyasını koyarak kullanabilirsiniz.
📚 Kullanım Alanları
- Türkçe kod üretimi
- Flutter/Dart temelli yapay zeka asistanları
- Eğitim/öğretim amaçlı doğal dil/kod birleşimi
⚠️ Uyarılar
- Bu model sadece deneysel ve eğitim amaçlıdır.
- Üretilecek içeriklerin doğruluğu ve güvenilirliği kullanıcının sorumluluğundadır.
🤝 Katkı
Bu model NoirZangetsu
tarafından geliştirilmiştir. Daha fazla bilgi veya katkı için lütfen Hugging Face profilimi ziyaret edin.
🧠 Unsloth
ile GGUF formatına çevrildi – kolay dağıtım ve minimum donanım gereksinimi için optimize edildi.
- Downloads last month
- 37
Hardware compatibility
Log In
to view the estimation
8-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for NoirZangetsu/gemma-finetune-flutter-gguf-2
Base model
google/gemma-1.1-2b-it