VERA 2.1
INSTRUCT
Intelligence artificielle de nouvelle génération
Description :
Vera 2.1 est une version optimisée du modèle Vera 2.0, offrant des améliorations en cohérence, support linguistique et stabilité. Avec son architecture de 3,9 milliards de paramètres, il excelle dans le traitement de longs documents, la programmation et la génération de texte multilingue, tout en garantissant une exécution 100% locale pour une confidentialité absolue.
Améliorations clés :
- Cohérence renforcée sur les contextes longs (128K tokens)
- Support linguistique étendu avec l’ajout de l’allemand (FR, EN, ES, IT, DE)
- Stabilité d’identité totale : Plus de confusion avec d'autres modèles IA
- Optimisation mémoire : Meilleure gestion de la VRAM pour les longs documents
- Capacités techniques améliorées : Analyse de code Python et création littéraire
Caractéristiques principales :
- Modèle compact & performant (3,9B paramètres)
- Traitement local (PC & smartphones) – aucune donnée externe
- Langues supportées : Français, Anglais, Espagnol, Italien, Allemand
- Licence : Apache 2.0 (open source)
Téléchargement et utilisation :
Option 1 : Via Ollama
ollama run hf.co/Dorian2B/Vera-2.1-GGUF
Option 2 : Téléchargement direct (GGUF)
Modèle GGUF Quantifié (Q8_0)
Option 3 : Utilisation avec Python (PyTorch)
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "Dorian2B/Vera-2.1"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(model_name)
input_text = "Bonjour Vera, comment ça va ?"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=100)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
Cas d'usage :
- Assistance personnelle hors ligne
- Réponses rapides en français
- Solutions pour appareils à ressources limitées
Notes :
- Fonctionnement 100% local respectant la vie privée
- Performances optimales sur CPU/GPU (format GGUF)
- Poids du modèle : ~4GB (Q8_0)