SentenceTransformer based on intfloat/multilingual-e5-large
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-large on the questions_answers_final_v3 dataset. It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-large
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 1024 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("multilingual-e5-large-v3")
# Run inference
sentences = [
'huyết áp bình thường dao động trong khoảng 90/60- 139/89mmhg và thay đổi tùy theo độ tuổi, phái tính, từng thời điểm khác nhau trong ngày, thậm chí theo đặc thù của từng cơ thể khác nhau: ví dụ một người có thể hoàn toàn khỏe mạnh với huyết áp 90/60mmhg thì người khác có thể rất mệt mỏi, khó chịu khi huyết áp là 100/60mmhg... huyết áp được gọi là tụt (hạ huyết áp hay huyết áp thấp) khi trị số huyết áp < 90/60mmhg hay chính xác là khi huyết áp bị giảm tới mức gây chóng mặt, xây xẩm hay ngất xỉu. huyết áp thấp không phải là bệnh mà chỉ là một biểu hiện do nhiều nguyên nhân gây ra: ví dụ thiếu máu, mất máu, mất nước, suy yếu cơ tim, tổn thương van tim, rối loạn hệ thần kinh điều hòa tim và mạch máu... chóng mặt là một triệu chứng có thể do nhiều bệnh lý gây nên. nếu chị thường xuyên bị chóng mặt kèm theo huyết áp thấp (theo các tiêu chuẩn trên) thì có thể triệu chứng chóng mặt này do huyết áp thấp. chích thuốc bổ và ăn nhiều thức ăn bổ dưỡng chỉ giúp cải thiện chóng mặt và huyết áp thấp do cơ thể suy nhược, thiếu máu mạn tính. chị có thể thử phương pháp này trong một thời gian, nếu không bớt thì nên đến khám chuyên khoa tim mạch và thần kinh để được chẩn đoán thêm.',
'Tôi thường xuyên chóng mặt, đi khám thì được biết do huyết áp thấp. Bác sĩ chích thuốc bổ và khuyên tôi nên ăn uống đủ chất. Xin hỏi tôi bị bệnh gì? (Pham Minh Anh - TP.HCM)',
'Chào bác sĩ, BS cho em hỏi bị nhăn đầu ti và mọc các mụn thịt quanh vú là bị làm sao ạ? Chân thành cảm ơn BS. (Trúc - [email protected])',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Information Retrieval
- Dataset:
dim_768
- Evaluated with
InformationRetrievalEvaluator
Metric | Value |
---|---|
cosine_accuracy@1 | 0.7237 |
cosine_accuracy@3 | 0.8482 |
cosine_accuracy@5 | 0.8782 |
cosine_accuracy@10 | 0.9167 |
cosine_precision@1 | 0.7237 |
cosine_precision@3 | 0.2827 |
cosine_precision@5 | 0.1756 |
cosine_precision@10 | 0.0917 |
cosine_recall@1 | 0.7237 |
cosine_recall@3 | 0.8482 |
cosine_recall@5 | 0.8782 |
cosine_recall@10 | 0.9167 |
cosine_ndcg@10 | 0.8226 |
cosine_mrr@10 | 0.7923 |
cosine_map@100 | 0.7951 |
Training Details
Training Dataset
questions_answers_final_v3
- Dataset: questions_answers_final_v3 at eac0552
- Size: 55,802 training samples
- Columns:
answers
andqueries
- Approximate statistics based on the first 1000 samples:
answers queries type string string details - min: 3 tokens
- mean: 208.2 tokens
- max: 512 tokens
- min: 4 tokens
- mean: 85.92 tokens
- max: 512 tokens
- Samples:
answers queries Mã tương đương: 03.4155.0542, Tên dịch vụ kỹ thuật theo Thông tư 23/2024/TT-BYT: Phẫu thuật nội soi khớp gối tạo dây chằng chéo trước endo-button, Tên dịch vụ phê duyệt giá: Phẫu thuật nội soi khớp gối tạo dây chằng chéo trước endo-button, Phân Loại PTTT: P1, Mức giá: 4.594.500, Ghi chú: Chưa bao gồm nẹp vít, ốc, dao cắt sụn và lưỡi bào, bộ dây bơm nước, đầu đốt, tay dao điện, gân sinh học, gân đồng loại.
Phẫu thuật nội soi khớp gối tạo dây chằng chéo trước endo-button
chào bạn, ung thư gan không lây qua ăn uống, sinh hoạt chung trước tiên phải khẳng định ung thư gan không lây. hoàn toàn không lây qua ăn uống, sinh hoạt chung bạn nhé. các chất dịch của người bệnh cũng không làm lây lan bệnh. chỉ có viêm gan, như viêm gan a lây qua nước bọt, ăn uống chung… chứ ung thư gan hoàn toàn không lây qua đường ăn uống. tuy nhiên, những người bị viêm gan b hoặc c mãn tính có biến chứng ung thư gan thì có thể lây bệnh viêm gan c, hoặc viêm gan b qua đường máu hoặc đường dịch tiết. như vậy, bạn cần kiểm tra xem bệnh ung thư gan của ông có phải do biến chứng từ viêm gan b, c hay không. nếu không phải do biến chứng từ viêm gan thì không ngại lây. vẫn có thể cho ông bà cùng ăn chung, không ngại bà bị lây bệnh. gia đình có thể cho ông ăn uống thoải mái, không cần kiêng cữ gì đâu, để những tháng cuối đời của ông được như ý, vui vẻ.có thể nói một sự thật khá đau buồn là ung thư gan đã di căn, thời gian còn lại của bệnh nhân chỉ trong vòng từ 6 -12 tháng.cố gắng lên bạn...
Ông tôi mới phát hiện bị ung thư gan, đã bị di căn. Vì ông tôi gần 90 tuổi nên gia đình không muốn mổ xẻ hoặc làm ông đau đớn, nên con cháu thống nhất sẽ đưa ông về nhà điều trị ngoại trú. Vì ông bà rất tình cảm, vẫn hay ăn chung nên chúng tôi muốn biết ung thu gan có lây không? Bà ăn uống cùng ông có làm sao không ạ? Ngoài ra, thưa bác sĩ, ung thư gan đã di căn có thể sống được bao lâu? Có cần kiêng cữ món gì không? Chân thành cảm ơn bác sĩ. (Bạn đọc)
Mã tương đương: 14.0151.0813, Tên dịch vụ kỹ thuật theo Thông tư 23/2024/TT-BYT: Đặt ống silicon tiền phòng điều trị glôcôm, Tên dịch vụ phê duyệt giá: Đặt ống silicon tiền phòng điều trị glôcôm, Phân Loại PTTT: PDB, Mức giá: 1.644.100, Ghi chú: Chưa bao gồm ống silicon.
Đặt ống silicon tiền phòng điều trị glôcôm
- Loss:
MultipleNegativesRankingLoss
with these parameters:{ "scale": 20.0, "similarity_fct": "cos_sim" }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 10per_device_eval_batch_size
: 1learning_rate
: 1e-06num_train_epochs
: 1lr_scheduler_type
: constant_with_warmupwarmup_ratio
: 0.1bf16
: Truetf32
: Falseload_best_model_at_end
: Trueoptim
: adamw_torch_fusedbatch_sampler
: no_duplicates
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 10per_device_eval_batch_size
: 1per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 1eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 1e-06weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 1max_steps
: -1lr_scheduler_type
: constant_with_warmuplr_scheduler_kwargs
: {}warmup_ratio
: 0.1warmup_steps
: 0log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Truefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Falselocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Trueignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torch_fusedoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Nonehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseinclude_for_metrics
: []eval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseaverage_tokens_across_devices
: Falseprompts
: Nonebatch_sampler
: no_duplicatesmulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | dim_768_cosine_ndcg@10 |
---|---|---|---|
0.0022 | 10 | 1.0725 | - |
0.0045 | 20 | 0.9312 | - |
0.0067 | 30 | 0.8916 | - |
0.0090 | 40 | 0.9559 | - |
0.0112 | 50 | 0.9385 | - |
0.0134 | 60 | 0.932 | - |
0.0157 | 70 | 0.8783 | - |
0.0179 | 80 | 0.9689 | - |
0.0202 | 90 | 0.9096 | - |
0.0224 | 100 | 0.8127 | - |
0.0246 | 110 | 0.8836 | - |
0.0269 | 120 | 0.875 | - |
0.0291 | 130 | 0.7447 | - |
0.0314 | 140 | 0.719 | - |
0.0336 | 150 | 0.7221 | - |
0.0358 | 160 | 0.6853 | - |
0.0381 | 170 | 0.6243 | - |
0.0403 | 180 | 0.5494 | - |
0.0426 | 190 | 0.5801 | - |
0.0448 | 200 | 0.434 | - |
0.0470 | 210 | 0.3835 | - |
0.0493 | 220 | 0.4194 | - |
0.0515 | 230 | 0.3993 | - |
0.0538 | 240 | 0.4722 | - |
0.0560 | 250 | 0.4243 | - |
0.0582 | 260 | 0.334 | - |
0.0605 | 270 | 0.2327 | - |
0.0627 | 280 | 0.183 | - |
0.0650 | 290 | 0.2109 | - |
0.0672 | 300 | 0.2534 | - |
0.0694 | 310 | 0.222 | - |
0.0717 | 320 | 0.2471 | - |
0.0739 | 330 | 0.1994 | - |
0.0762 | 340 | 0.2001 | - |
0.0784 | 350 | 0.1089 | - |
0.0806 | 360 | 0.1568 | - |
0.0829 | 370 | 0.0801 | - |
0.0851 | 380 | 0.082 | - |
0.0874 | 390 | 0.1205 | - |
0.0896 | 400 | 0.129 | - |
0.0918 | 410 | 0.1083 | - |
0.0941 | 420 | 0.1177 | - |
0.0963 | 430 | 0.0538 | - |
0.0986 | 440 | 0.2064 | - |
0.1008 | 450 | 0.0553 | - |
0.1030 | 460 | 0.1577 | - |
0.1053 | 470 | 0.1717 | - |
0.1075 | 480 | 0.0883 | - |
0.1098 | 490 | 0.0355 | - |
0.1120 | 500 | 0.1754 | - |
0.1142 | 510 | 0.1565 | - |
0.1165 | 520 | 0.1607 | - |
0.1187 | 530 | 0.0686 | - |
0.1210 | 540 | 0.085 | - |
0.1232 | 550 | 0.0933 | - |
0.1254 | 560 | 0.0916 | - |
0.1277 | 570 | 0.0339 | - |
0.1299 | 580 | 0.1332 | - |
0.1322 | 590 | 0.1247 | - |
0.1344 | 600 | 0.0857 | - |
0.1366 | 610 | 0.0895 | - |
0.1389 | 620 | 0.1396 | - |
0.1411 | 630 | 0.1071 | - |
0.1434 | 640 | 0.0839 | - |
0.1456 | 650 | 0.0214 | - |
0.1478 | 660 | 0.0568 | - |
0.1501 | 670 | 0.0485 | - |
0.1523 | 680 | 0.0785 | - |
0.1546 | 690 | 0.1071 | - |
0.1568 | 700 | 0.1198 | - |
0.1591 | 710 | 0.0352 | - |
0.1613 | 720 | 0.0172 | - |
0.1635 | 730 | 0.1381 | - |
0.1658 | 740 | 0.0806 | - |
0.1680 | 750 | 0.1238 | - |
0.1703 | 760 | 0.0931 | - |
0.1725 | 770 | 0.0702 | - |
0.1747 | 780 | 0.0589 | - |
0.1770 | 790 | 0.1454 | - |
0.1792 | 800 | 0.1521 | - |
0.1815 | 810 | 0.0975 | - |
0.1837 | 820 | 0.0807 | - |
0.1859 | 830 | 0.0539 | - |
0.1882 | 840 | 0.0864 | - |
0.1904 | 850 | 0.1547 | - |
0.1927 | 860 | 0.1256 | - |
0.1949 | 870 | 0.037 | - |
0.1971 | 880 | 0.097 | - |
0.1994 | 890 | 0.0949 | - |
0.2016 | 900 | 0.0284 | - |
0.2039 | 910 | 0.1728 | - |
0.2061 | 920 | 0.0504 | - |
0.2083 | 930 | 0.0769 | - |
0.2106 | 940 | 0.031 | - |
0.2128 | 950 | 0.0595 | - |
0.2151 | 960 | 0.0691 | - |
0.2173 | 970 | 0.0853 | - |
0.2195 | 980 | 0.0124 | - |
0.2218 | 990 | 0.0482 | - |
0.2240 | 1000 | 0.1254 | - |
0.2263 | 1010 | 0.0187 | - |
0.2285 | 1020 | 0.1364 | - |
0.2307 | 1030 | 0.0645 | - |
0.2330 | 1040 | 0.0707 | - |
0.2352 | 1050 | 0.1193 | - |
0.2375 | 1060 | 0.0724 | - |
0.2397 | 1070 | 0.0773 | - |
0.2419 | 1080 | 0.048 | - |
0.2442 | 1090 | 0.0972 | - |
0.2464 | 1100 | 0.0433 | - |
0.2487 | 1110 | 0.0607 | - |
0.2509 | 1120 | 0.0907 | - |
0.2531 | 1130 | 0.0351 | - |
0.2554 | 1140 | 0.0816 | - |
0.2576 | 1150 | 0.0517 | - |
0.2599 | 1160 | 0.0616 | - |
0.2621 | 1170 | 0.0475 | - |
0.2643 | 1180 | 0.1408 | - |
0.2666 | 1190 | 0.1076 | - |
0.2688 | 1200 | 0.09 | - |
0.2711 | 1210 | 0.0548 | - |
0.2733 | 1220 | 0.0744 | - |
0.2755 | 1230 | 0.1068 | - |
0.2778 | 1240 | 0.1186 | - |
0.2800 | 1250 | 0.0566 | - |
0.2823 | 1260 | 0.0711 | - |
0.2845 | 1270 | 0.1216 | - |
0.2867 | 1280 | 0.0619 | - |
0.2890 | 1290 | 0.1642 | - |
0.2912 | 1300 | 0.0667 | - |
0.2935 | 1310 | 0.1369 | - |
0.2957 | 1320 | 0.0746 | - |
0.2979 | 1330 | 0.0529 | - |
0.3002 | 1340 | 0.0676 | - |
0.3024 | 1350 | 0.0655 | - |
0.3047 | 1360 | 0.0412 | - |
0.3069 | 1370 | 0.0314 | - |
0.3091 | 1380 | 0.0366 | - |
0.3114 | 1390 | 0.0677 | - |
0.3136 | 1400 | 0.021 | - |
0.3159 | 1410 | 0.0846 | - |
0.3181 | 1420 | 0.0047 | - |
0.3203 | 1430 | 0.0257 | - |
0.3226 | 1440 | 0.1086 | - |
0.3248 | 1450 | 0.0711 | - |
0.3271 | 1460 | 0.0591 | - |
0.3293 | 1470 | 0.0441 | - |
0.3315 | 1480 | 0.1062 | - |
0.3338 | 1490 | 0.0814 | - |
0.3360 | 1500 | 0.0502 | - |
0.3383 | 1510 | 0.0316 | - |
0.3405 | 1520 | 0.189 | - |
0.3427 | 1530 | 0.0479 | - |
0.3450 | 1540 | 0.0723 | - |
0.3472 | 1550 | 0.0314 | - |
0.3495 | 1560 | 0.0376 | - |
0.3517 | 1570 | 0.1575 | - |
0.3539 | 1580 | 0.0132 | - |
0.3562 | 1590 | 0.0851 | - |
0.3584 | 1600 | 0.0755 | - |
0.3607 | 1610 | 0.0749 | - |
0.3629 | 1620 | 0.0587 | - |
0.3651 | 1630 | 0.0867 | - |
0.3674 | 1640 | 0.0912 | - |
0.3696 | 1650 | 0.0289 | - |
0.3719 | 1660 | 0.0555 | - |
0.3741 | 1670 | 0.0813 | - |
0.3763 | 1680 | 0.0172 | - |
0.3786 | 1690 | 0.0809 | - |
0.3808 | 1700 | 0.0702 | - |
0.3831 | 1710 | 0.1098 | - |
0.3853 | 1720 | 0.0524 | - |
0.3875 | 1730 | 0.0051 | - |
0.3898 | 1740 | 0.0489 | - |
0.3920 | 1750 | 0.0262 | - |
0.3943 | 1760 | 0.0149 | - |
0.3965 | 1770 | 0.0815 | - |
0.3987 | 1780 | 0.0606 | - |
0.4010 | 1790 | 0.061 | - |
0.4032 | 1800 | 0.1599 | - |
0.4055 | 1810 | 0.0275 | - |
0.4077 | 1820 | 0.0673 | - |
0.4099 | 1830 | 0.0829 | - |
0.4122 | 1840 | 0.1204 | - |
0.4144 | 1850 | 0.0436 | - |
0.4167 | 1860 | 0.1417 | - |
0.4189 | 1870 | 0.0566 | - |
0.4211 | 1880 | 0.0207 | - |
0.4234 | 1890 | 0.006 | - |
0.4256 | 1900 | 0.0805 | - |
0.4279 | 1910 | 0.068 | - |
0.4301 | 1920 | 0.0409 | - |
0.4323 | 1930 | 0.0695 | - |
0.4346 | 1940 | 0.0792 | - |
0.4368 | 1950 | 0.126 | - |
0.4391 | 1960 | 0.0282 | - |
0.4413 | 1970 | 0.0701 | - |
0.4435 | 1980 | 0.0149 | - |
0.4458 | 1990 | 0.1448 | - |
0.4480 | 2000 | 0.1568 | - |
0.4503 | 2010 | 0.0665 | - |
0.4525 | 2020 | 0.0489 | - |
0.4547 | 2030 | 0.0252 | - |
0.4570 | 2040 | 0.1204 | - |
0.4592 | 2050 | 0.11 | - |
0.4615 | 2060 | 0.1115 | - |
0.4637 | 2070 | 0.0261 | - |
0.4659 | 2080 | 0.0313 | - |
0.4682 | 2090 | 0.0183 | - |
0.4704 | 2100 | 0.0342 | - |
0.4727 | 2110 | 0.0369 | - |
0.4749 | 2120 | 0.0506 | - |
0.4772 | 2130 | 0.0859 | - |
0.4794 | 2140 | 0.0483 | - |
0.4816 | 2150 | 0.1365 | - |
0.4839 | 2160 | 0.0626 | - |
0.4861 | 2170 | 0.0952 | - |
0.4884 | 2180 | 0.0422 | - |
0.4906 | 2190 | 0.0263 | - |
0.4928 | 2200 | 0.0344 | - |
0.4951 | 2210 | 0.0574 | - |
0.4973 | 2220 | 0.0837 | - |
0.4996 | 2230 | 0.055 | - |
0.5018 | 2240 | 0.1217 | - |
0.5040 | 2250 | 0.0597 | - |
0.5063 | 2260 | 0.0124 | - |
0.5085 | 2270 | 0.088 | - |
0.5108 | 2280 | 0.0325 | - |
0.5130 | 2290 | 0.0428 | - |
0.5152 | 2300 | 0.036 | - |
0.5175 | 2310 | 0.0512 | - |
0.5197 | 2320 | 0.1216 | - |
0.5220 | 2330 | 0.0717 | - |
0.5242 | 2340 | 0.004 | - |
0.5264 | 2350 | 0.1664 | - |
0.5287 | 2360 | 0.0873 | - |
0.5309 | 2370 | 0.043 | - |
0.5332 | 2380 | 0.0411 | - |
0.5354 | 2390 | 0.0355 | - |
0.5376 | 2400 | 0.0804 | - |
0.5399 | 2410 | 0.2921 | - |
0.5421 | 2420 | 0.0628 | - |
0.5444 | 2430 | 0.1446 | - |
0.5466 | 2440 | 0.0256 | - |
0.5488 | 2450 | 0.0709 | - |
0.5511 | 2460 | 0.0814 | - |
0.5533 | 2470 | 0.0701 | - |
0.5556 | 2480 | 0.074 | - |
0.5578 | 2490 | 0.0055 | - |
0.5600 | 2500 | 0.0719 | - |
0.5623 | 2510 | 0.0423 | - |
0.5645 | 2520 | 0.0277 | - |
0.5668 | 2530 | 0.0164 | - |
0.5690 | 2540 | 0.1647 | - |
0.5712 | 2550 | 0.0532 | - |
0.5735 | 2560 | 0.0801 | - |
0.5757 | 2570 | 0.0591 | - |
0.5780 | 2580 | 0.1082 | - |
0.5802 | 2590 | 0.0407 | - |
0.5824 | 2600 | 0.0042 | - |
0.5847 | 2610 | 0.0175 | - |
0.5869 | 2620 | 0.0438 | - |
0.5892 | 2630 | 0.0794 | - |
0.5914 | 2640 | 0.0847 | - |
0.5936 | 2650 | 0.0507 | - |
0.5959 | 2660 | 0.0713 | - |
0.5981 | 2670 | 0.0246 | - |
0.6004 | 2680 | 0.0833 | - |
0.6026 | 2690 | 0.0551 | - |
0.6048 | 2700 | 0.0628 | - |
0.6071 | 2710 | 0.0657 | - |
0.6093 | 2720 | 0.0499 | - |
0.6116 | 2730 | 0.1524 | - |
0.6138 | 2740 | 0.0432 | - |
0.6160 | 2750 | 0.0261 | - |
0.6183 | 2760 | 0.0544 | - |
0.6205 | 2770 | 0.0315 | - |
0.6228 | 2780 | 0.0622 | - |
0.625 | 2790 | 0.0462 | - |
0.6272 | 2800 | 0.0192 | - |
0.6295 | 2810 | 0.0083 | - |
0.6317 | 2820 | 0.0284 | - |
0.6340 | 2830 | 0.0283 | - |
0.6362 | 2840 | 0.0063 | - |
0.6384 | 2850 | 0.0127 | - |
0.6407 | 2860 | 0.037 | - |
0.6429 | 2870 | 0.0682 | - |
0.6452 | 2880 | 0.0543 | - |
0.6474 | 2890 | 0.1699 | - |
0.6496 | 2900 | 0.0644 | - |
0.6519 | 2910 | 0.0294 | - |
0.6541 | 2920 | 0.0844 | - |
0.6564 | 2930 | 0.0954 | - |
0.6586 | 2940 | 0.0058 | - |
0.6608 | 2950 | 0.0714 | - |
0.6631 | 2960 | 0.0465 | - |
0.6653 | 2970 | 0.0035 | - |
0.6676 | 2980 | 0.0361 | - |
0.6698 | 2990 | 0.0081 | - |
0.6720 | 3000 | 0.0302 | - |
0.6743 | 3010 | 0.0673 | - |
0.6765 | 3020 | 0.0414 | - |
0.6788 | 3030 | 0.0576 | - |
0.6810 | 3040 | 0.1145 | - |
0.6832 | 3050 | 0.0663 | - |
0.6855 | 3060 | 0.1084 | - |
0.6877 | 3070 | 0.0739 | - |
0.6900 | 3080 | 0.0034 | - |
0.6922 | 3090 | 0.0324 | - |
0.6944 | 3100 | 0.0555 | - |
0.6967 | 3110 | 0.0866 | - |
0.6989 | 3120 | 0.036 | - |
0.7012 | 3130 | 0.0863 | - |
0.7034 | 3140 | 0.0988 | - |
0.7056 | 3150 | 0.04 | - |
0.7079 | 3160 | 0.0469 | - |
0.7101 | 3170 | 0.0743 | - |
0.7124 | 3180 | 0.07 | - |
0.7146 | 3190 | 0.0546 | - |
0.7168 | 3200 | 0.068 | - |
0.7191 | 3210 | 0.1288 | - |
0.7213 | 3220 | 0.0338 | - |
0.7236 | 3230 | 0.045 | - |
0.7258 | 3240 | 0.0266 | - |
0.7280 | 3250 | 0.0993 | - |
0.7303 | 3260 | 0.0388 | - |
0.7325 | 3270 | 0.0397 | - |
0.7348 | 3280 | 0.0571 | - |
0.7370 | 3290 | 0.0808 | - |
0.7392 | 3300 | 0.0789 | - |
0.7415 | 3310 | 0.0402 | - |
0.7437 | 3320 | 0.0199 | - |
0.7460 | 3330 | 0.0458 | - |
0.7482 | 3340 | 0.072 | - |
0.7504 | 3350 | 0.0916 | - |
0.7527 | 3360 | 0.0397 | - |
0.7549 | 3370 | 0.0062 | - |
0.7572 | 3380 | 0.0592 | - |
0.7594 | 3390 | 0.0421 | - |
0.7616 | 3400 | 0.0752 | - |
0.7639 | 3410 | 0.0646 | - |
0.7661 | 3420 | 0.0591 | - |
0.7684 | 3430 | 0.0742 | - |
0.7706 | 3440 | 0.0178 | - |
0.7728 | 3450 | 0.0301 | - |
0.7751 | 3460 | 0.0096 | - |
0.7773 | 3470 | 0.0163 | - |
0.7796 | 3480 | 0.0277 | - |
0.7818 | 3490 | 0.0292 | - |
0.7841 | 3500 | 0.0464 | - |
0.7863 | 3510 | 0.0427 | - |
0.7885 | 3520 | 0.1283 | - |
0.7908 | 3530 | 0.0372 | - |
0.7930 | 3540 | 0.0784 | - |
0.7953 | 3550 | 0.133 | - |
0.7975 | 3560 | 0.0197 | - |
0.7997 | 3570 | 0.0575 | - |
0.8020 | 3580 | 0.072 | - |
0.8042 | 3590 | 0.0361 | - |
0.8065 | 3600 | 0.0922 | - |
0.8087 | 3610 | 0.017 | - |
0.8109 | 3620 | 0.0655 | - |
0.8132 | 3630 | 0.0812 | - |
0.8154 | 3640 | 0.0164 | - |
0.8177 | 3650 | 0.0358 | - |
0.8199 | 3660 | 0.0437 | - |
0.8221 | 3670 | 0.0417 | - |
0.8244 | 3680 | 0.0249 | - |
0.8266 | 3690 | 0.0828 | - |
0.8289 | 3700 | 0.0013 | - |
0.8311 | 3710 | 0.114 | - |
0.8333 | 3720 | 0.0541 | - |
0.8356 | 3730 | 0.0473 | - |
0.8378 | 3740 | 0.0082 | - |
0.8401 | 3750 | 0.0072 | - |
0.8423 | 3760 | 0.0519 | - |
0.8445 | 3770 | 0.0805 | - |
0.8468 | 3780 | 0.132 | - |
0.8490 | 3790 | 0.0725 | - |
0.8513 | 3800 | 0.0985 | - |
0.8535 | 3810 | 0.1151 | - |
0.8557 | 3820 | 0.0562 | - |
0.8580 | 3830 | 0.0428 | - |
0.8602 | 3840 | 0.0299 | - |
0.8625 | 3850 | 0.045 | - |
0.8647 | 3860 | 0.0877 | - |
0.8669 | 3870 | 0.0926 | - |
0.8692 | 3880 | 0.0565 | - |
0.8714 | 3890 | 0.0552 | - |
0.8737 | 3900 | 0.0974 | - |
0.8759 | 3910 | 0.0209 | - |
0.8781 | 3920 | 0.0873 | - |
0.8804 | 3930 | 0.0091 | - |
0.8826 | 3940 | 0.0705 | - |
0.8849 | 3950 | 0.2158 | - |
0.8871 | 3960 | 0.0558 | - |
0.8893 | 3970 | 0.0217 | - |
0.8916 | 3980 | 0.0257 | - |
0.8938 | 3990 | 0.0414 | - |
0.8961 | 4000 | 0.0358 | - |
0.8983 | 4010 | 0.0268 | - |
0.9005 | 4020 | 0.0073 | - |
0.9028 | 4030 | 0.078 | - |
0.9050 | 4040 | 0.0115 | - |
0.9073 | 4050 | 0.0883 | - |
0.9095 | 4060 | 0.0238 | - |
0.9117 | 4070 | 0.0383 | - |
0.9140 | 4080 | 0.0364 | - |
0.9162 | 4090 | 0.0389 | - |
0.9185 | 4100 | 0.0738 | - |
0.9207 | 4110 | 0.0787 | - |
0.9229 | 4120 | 0.0527 | - |
0.9252 | 4130 | 0.1483 | - |
0.9274 | 4140 | 0.0168 | - |
0.9297 | 4150 | 0.0292 | - |
0.9319 | 4160 | 0.074 | - |
0.9341 | 4170 | 0.0022 | - |
0.9364 | 4180 | 0.005 | - |
0.9386 | 4190 | 0.0984 | - |
0.9409 | 4200 | 0.0304 | - |
0.9431 | 4210 | 0.074 | - |
0.9453 | 4220 | 0.0661 | - |
0.9476 | 4230 | 0.0478 | - |
0.9498 | 4240 | 0.0805 | - |
0.9521 | 4250 | 0.0283 | - |
0.9543 | 4260 | 0.0668 | - |
0.9565 | 4270 | 0.0217 | - |
0.9588 | 4280 | 0.0161 | - |
0.9610 | 4290 | 0.0391 | - |
0.9633 | 4300 | 0.1008 | - |
0.9655 | 4310 | 0.073 | - |
0.9677 | 4320 | 0.0178 | - |
0.9700 | 4330 | 0.0495 | - |
0.9722 | 4340 | 0.0018 | - |
0.9745 | 4350 | 0.0453 | - |
0.9767 | 4360 | 0.014 | - |
0.9789 | 4370 | 0.1036 | - |
0.9812 | 4380 | 0.0365 | - |
0.9834 | 4390 | 0.0488 | - |
0.9857 | 4400 | 0.0104 | - |
0.9879 | 4410 | 0.0556 | - |
0.9901 | 4420 | 0.0456 | - |
0.9924 | 4430 | 0.0855 | - |
0.9946 | 4440 | 0.0026 | - |
0.9969 | 4450 | 0.108 | - |
0.9991 | 4460 | 0.0436 | - |
1.0 | 4464 | - | 0.8226 |
- The bold row denotes the saved checkpoint.
Framework Versions
- Python: 3.10.16
- Sentence Transformers: 3.4.1
- Transformers: 4.49.0
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.3.2
- Tokenizers: 0.21.0
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
MultipleNegativesRankingLoss
@misc{henderson2017efficient,
title={Efficient Natural Language Response Suggestion for Smart Reply},
author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
year={2017},
eprint={1705.00652},
archivePrefix={arXiv},
primaryClass={cs.CL}
}
- Downloads last month
- 5
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for thang1943/multilingual-e5-large-v3
Base model
intfloat/multilingual-e5-largeDataset used to train thang1943/multilingual-e5-large-v3
Evaluation results
- Cosine Accuracy@1 on dim 768self-reported0.724
- Cosine Accuracy@3 on dim 768self-reported0.848
- Cosine Accuracy@5 on dim 768self-reported0.878
- Cosine Accuracy@10 on dim 768self-reported0.917
- Cosine Precision@1 on dim 768self-reported0.724
- Cosine Precision@3 on dim 768self-reported0.283
- Cosine Precision@5 on dim 768self-reported0.176
- Cosine Precision@10 on dim 768self-reported0.092
- Cosine Recall@1 on dim 768self-reported0.724
- Cosine Recall@3 on dim 768self-reported0.848