The Model yuj-v1:

The yuj-v1 model is a blend of advanced models strategically crafted to enhance Hindi Language Models (LLMs) effectively and democratically. Its primary goals include catalyzing the development of Hindi and its communities, making significant contributions to linguistic knowledge. The term "yuj," from Sanskrit, signifies fundamental unity, highlighting the integration of sophisticated technologies to improve the language experience for users in the Hindi-speaking community.

Official GGUF version: shuvom/yuj-v1-GGUF

Below are the model which are leverage to build this yuj-v1:

โ˜„๏ธSpace to use it (yuj-v1 tryO):

Open in HuggingFace

๐Ÿ’ป Usage:

First, you need to install some of below packages:

  1. Bits and bytes
!pip install bitsandbytes
  1. Accelerate (to install the latest version)
!pip install git+https://github.com/huggingface/accelerate.git
  1. Usage
# Usage
import torch

# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM

# load the model in 4-bit quantization
tokenizer = AutoTokenizer.from_pretrained("shuvom/yuj-v1")
model = AutoModelForCausalLM.from_pretrained("shuvom/yuj-v1",torch_dtype=torch.bfloat16,load_in_4bit=True)

prompt = "เคฏเฅเคœ เคถเฅ€เคฐเฅเคท เคฆเฅเคตเคฟเคญเคพเคทเฅ€ เคฎเฅ‰เคกเคฒ เคฎเฅ‡เค‚ เคธเฅ‡ เคเค• เคนเฅˆ"
inputs = tokenizer(prompt, return_tensors="pt")

# Generate
generate_ids = model.generate(inputs.input_ids, max_length=65)
tokenizer.batch_decode(generate_ids, skip_special_tokens=True, clean_up_tokenization_spaces=False)[0]
  1. Output
เคฏเฅเคœ เคถเฅ€เคฐเฅเคท เคฆเฅเคตเคฟเคญเคพเคทเฅ€ เคฎเฅ‰เคกเคฒ เคฎเฅ‡เค‚ เคธเฅ‡ เคเค• เคนเฅˆเฅค เคฏเคน เคเค• เค‰เคคเฅเคชเคพเคฆเค• เคฎเฅ‰เคกเคฒ เคนเฅˆ เคœเฅ‹ เคเค• เคธเคพเคฅ เคเค• เคŸเฅเคฐเคพเค‚เคธเคซเฅ‰เคฐเฅเคฎเคฐ เค”เคฐ เคเค• เค†เคคเฅเคฎ-เคงเฅเคฏเคพเคจ เคคเค‚เคคเฅเคฐเคฟเค•เคพ เคจเฅ‡เคŸเคตเคฐเฅเค• เค•เฅ‹ เคœเฅ‹เคกเคผเคคเคพ เคนเฅˆเฅค เคฏเคน เคเค• เคŸเฅเคฐเคพเค‚เคธเคซเฅ‰เคฐเฅเคฎเคฐ เคตเคพเคธเฅเคคเฅเค•เคฒเคพ เค•เคพ เค‰เคชเคฏเฅ‹เค— เค•เคฐเคคเคพ เคนเฅˆ เคœเฅ‹ เคเค• เคŸเฅเคฐเคพเค‚เคธเคซเฅ‰เคฐเฅเคฎเคฐ เคฎเฅ‰เคกเคฒ เค•เฅ€ เคคเฅเคฒเคจเคพ เคฎเฅ‡เค‚ เคฌเคนเฅเคค เค…เคงเคฟเค• เคœเคŸเคฟเคฒ เคนเฅˆเฅค

๐Ÿงฉ Configuration

models:
  - model: sarvamai/OpenHathi-7B-Hi-v0.1-Base
    # no parameters necessary for base model
  - model: ai4bharat/Airavata
    parameters:
      density: 0.5
      weight: 0.5
  - model: BhabhaAI/Gajendra-v0.1
    parameters:
      density: 0.5
      weight: 0.3
merge_method: ties
base_model: sarvamai/OpenHathi-7B-Hi-v0.1-Base
parameters:
  normalize: true
dtype: float16

Open LLM Leaderboard Evaluation Results

Detailed results can be found here

Metric Value
Avg. 45.97
AI2 Reasoning Challenge (25-Shot) 45.65
HellaSwag (10-Shot) 70.10
MMLU (5-Shot) 43.78
TruthfulQA (0-shot) 41.69
Winogrande (5-shot) 69.85
GSM8k (5-shot) 4.78
Downloads last month
13
Safetensors
Model size
6.87B params
Tensor type
FP16
ยท
Inference Providers NEW
This model isn't deployed by any Inference Provider. ๐Ÿ™‹ Ask for provider support

Evaluation results