🇹🇷 Gemma-3 Fine-Tuned (Flutter Dataset - Turkish) | GGUF (Q8_0)

Bu model, Google'ın Gemma-3 mimarisi üzerine inşa edilmiştir ve Türkçe Flutter programlama veri kümesi üzerinde fine-tune edilmiştir. Model, Unsloth kullanılarak quantize edilip GGUF formatında (Q8_0) dışa aktarılmıştır.

🧠 Model Özeti

  • Base Model: google/gemma-1.1-2b-it
  • Fine-Tune Dataset: NoirZangetsu/Flutter_Dataset_Turkish
  • Quantization: Q8_0 (8-bit)
  • Format: GGUF (Uyumlu: llama.cpp, text-generation-webui, koboldcpp, ollama)
  • Boyut: 4.1 GB

🛠 Eğitim Detayları

  • Eğitim Aracı: Unsloth + DeepSpeed
  • Quantize Edici: Unsloth GGUF Converter
  • Donanım: A100 40GB (Google Colab Pro+)
  • Tokenizer: Gemma tokenizer
  • Chat Template ayarları uygulanmıştır (BOS, EOS tokenlar optimize edilmiştir)

🚀 Kullanım (llama.cpp ile)

./main -m gemma-3-finetune.Q8_0.gguf -p "Flutter'da StatelessWidget nedir?"

veya text-generation-webui ile models klasörüne .gguf dosyasını koyarak kullanabilirsiniz.

📚 Kullanım Alanları

  • Türkçe kod üretimi
  • Flutter/Dart temelli yapay zeka asistanları
  • Eğitim/öğretim amaçlı doğal dil/kod birleşimi

⚠️ Uyarılar

  • Bu model sadece deneysel ve eğitim amaçlıdır.
  • Üretilecek içeriklerin doğruluğu ve güvenilirliği kullanıcının sorumluluğundadır.

🤝 Katkı

Bu model NoirZangetsu tarafından geliştirilmiştir. Daha fazla bilgi veya katkı için lütfen Hugging Face profilimi ziyaret edin.


🧠 Unsloth ile GGUF formatına çevrildi – kolay dağıtım ve minimum donanım gereksinimi için optimize edildi.

Downloads last month
37
GGUF
Model size
3.88B params
Architecture
gemma3
Hardware compatibility
Log In to view the estimation

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NoirZangetsu/gemma-finetune-flutter-gguf-2

Quantized
(6)
this model