VERA 2.1 INSTRUCT
Intelligence artificielle de nouvelle génération

Description :

Vera 2.1 est une version optimisée du modèle Vera 2.0, offrant des améliorations en cohérence, support linguistique et stabilité. Avec son architecture de 3,9 milliards de paramètres, il excelle dans le traitement de longs documents, la programmation et la génération de texte multilingue, tout en garantissant une exécution 100% locale pour une confidentialité absolue.

Améliorations clés :

  • Cohérence renforcée sur les contextes longs (128K tokens)
  • Support linguistique étendu avec l’ajout de l’allemand (FR, EN, ES, IT, DE)
  • Stabilité d’identité totale : Plus de confusion avec d'autres modèles IA
  • Optimisation mémoire : Meilleure gestion de la VRAM pour les longs documents
  • Capacités techniques améliorées : Analyse de code Python et création littéraire

Caractéristiques principales :

  • Modèle compact & performant (3,9B paramètres)
  • Traitement local (PC & smartphones) – aucune donnée externe
  • Langues supportées : Français, Anglais, Espagnol, Italien, Allemand
  • Licence : Apache 2.0 (open source)

Téléchargement et utilisation :

Option 1 : Via Ollama

ollama run hf.co/Dorian2B/Vera-2.1-GGUF

Option 2 : Téléchargement direct (GGUF)

Modèle GGUF Quantifié (Q8_0)

Option 3 : Utilisation avec Python (PyTorch)

from transformers import AutoModelForCausalLM, AutoTokenizer

model_name = "Dorian2B/Vera-2.1"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)

input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)

print(tokenizer.decode(outputs[0], skip_special_tokens=True))

Cas d'usage :

  • Assistance personnelle hors ligne
  • Réponses rapides en français
  • Solutions pour appareils à ressources limitées

Notes :

  • Fonctionnement 100% local respectant la vie privée
  • Performances optimales sur CPU/GPU (format GGUF)
  • Poids du modèle : ~4GB (Q8_0)
Downloads last month
52
GGUF
Model size
3.88B params
Architecture
gemma3
Hardware compatibility
Log In to view the estimation

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Dorian2B/Vera-2.1-GGUF

Base model

Dorian2B/Vera-2.0
Quantized
(1)
this model

Collection including Dorian2B/Vera-2.1-GGUF