👨💻 English to Myanmar Translation Model
- အင်္ဂလိပ် ဘာသာစကားမှ မြန်မာ ဘာသာစကားသို့ ဘာသာပြန်ဆိုပေးနိုင်သော LLM based model တစ်ခု ဖြစ်ပါတယ်။
- Opus MT ကို custom dataset ဖြစ် tuning လုပ်ယူထားတာ ဖြစ်ပါတယ်။
- Total parameter 249M ရှိပါတယ်။
- Finetuning ကို Batch size = 16 နဲ့ Epochs = 50 ထိ သုံးထားပါတယ်။
Reference
Inference
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
## load our model
model_name = "Ko-Yin-Maung/mig-mt-2.5b-eng-mya"
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
## Get the total number of parameters
total_params = sum(p.numel() for p in model.parameters())
print(f"Total number of parameters: {total_params}")
output
Total number of parameters: 249793536
Usage 1
from transformers import AutoTokenizer, AutoModelForSeq2SeqLM
model_name = "Ko-Yin-Maung/mig-mt-2.5b-eng-mya"
model = AutoModelForSeq2SeqLM.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
input_text = "Make up your own mind. It is fine by me if you want to do it."
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs)
translated_text = tokenizer.decode(outputs[0], skip_special_tokens=True)
print(translated_text)
output
ကိုယ့်ဟာကိုယ် ဆုံးဖြတ်ပါ။ အဆင်ပြေပါတယ် ၊ ခင်ဗျား လုပ်ချင်တယ်ဆိုရင် အဆင်ပြေပါတယ် ။
Usage 2
from transformers import pipeline
pipe = pipeline("translation", model="Ko-Yin-Maung/mig-mt-2.5b-eng-mya")
print(pipe(">>mya<< Would you please ask him to call me tomorrow?")[0])
output
ကျွန်တော့် ဆီ မနက်ဖြန် ဖုန်းဆက်ဖို့ သူ့ကို ပြောပေးနိုင်မလား ။
လွတ်လပ်စွာ ကူးယူ လေ့လာခွင့် ရှိသည်။
(လေ့လာခြင်းဖြင့် ကျွန်ုပ်တို့၏ မနက်ဖြန်များကို ဖြတ်သန်းကြပါစို့..။)
@Created by Myanmar Innovative Group (MIG)
- Downloads last month
- 8
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for Ko-Yin-Maung/mig-mt-2.5b-eng-mya
Base model
Helsinki-NLP/opus-mt-tc-bible-big-mul-mul