---
tags:
- sentence-transformers
- sentence-similarity
- feature-extraction
- generated_from_trainer
- dataset_size:12000
- loss:CosineSimilarityLoss
- loss:MultipleNegativesRankingLoss
base_model: intfloat/multilingual-e5-small
widget:
- source_sentence: تفاوتهای کلیدی بین موتورهای دیزلی و بنزینی چیست؟
sentences:
- یک VPN یا شبکه خصوصی مجازی، ارتباط اینترنتی شما را رمزنگاری کرده و آن را از طریق
یک سرور در مکانی که خودتان انتخاب کردهاید هدایت میکند و حفظ حریم خصوصی و امنیت
را فراهم میآورد.
- طراحان صدا روی عناصر صوتی یک فیلم کار میکنند، از جمله افکتهای صوتی و دیالوگ.
- سوخت دیزل چگالتر است و انرژی بیشتری در هر گالن نسبت به بنزین دارد.
- source_sentence: ماده تاریک چیست؟
sentences:
- مطالعه موجودات بیلومینسانس میتواند به بهبود درک ما از فرآیندهای سلولی کمک کند.
- رِف بزرگ مرجانی بزرگترین سیستم مرجانی جهان است که در استرالیا واقع شده است.
- بسیاری از دانشمندان در حال انجام آزمایشهایی برای شناسایی مستقیم ذرات ماده تاریک
هستند.
- source_sentence: کشاورزی دقیق چه معنایی دارد؟
sentences:
- پستانداران با وجود غدههای شیری مشخص میشوند که شیر تولید میکنند تا فرزندان خود
را تغذیه کنند و معمولاً دارای مو یا پشم هستند.
- در حالی که آنتیبیوتیکها برای درمان عفونتهای باکتریایی استفاده میشوند، آنها
در برابر عفونتهای ویروسی مانند سرماخوردگی یا آنفولانزا بیاثر هستند.
- کشاورزان از کشاورزی دقیق استفاده میکنند تا تصمیمات بهتری درباره کاشت، کوددهی
و برداشت محصولات بگیرند.
- source_sentence: کشف رنگ تغییر میدهد؟
sentences:
- داستهزبانها نوعی از مارمولکها هستند که در بخشهای مختلف جهان یافت میشوند.
- استفاده از مالچ برای پوشاندن خاک میتواند به حفظ رطوبت کمک کرده و نیاز به آبیاری
مکرر را کاهش دهد.
- در حین همجوشی باکتریایی، یک سلول اهداکننده DNA را از طریق پیلاسی که ساختاری شبیه
به پل است به یک سلول گیرنده منتقل میکند.
- source_sentence: مصریان باستان چگونه هرمها را ساختند؟
sentences:
- جنگ سرد بر توسعه سازمانهای بینالمللی که به حفظ صلح و امنیت میپردازند، تأثیر
گذاشت.
- مزایای بیکاری بین کشورها به طور وسیعی متفاوت است، به طوری که برخی از آنها حمایت
بیشتری نسبت به دیگران ارائه میدهند.
- هرمیها به عنوان مقبرههایی برای فراعنه ساخته شدند و هدف از آنها تأمین عبور ایمن
آنها به زندگی پس از مرگ بود.
pipeline_tag: sentence-similarity
library_name: sentence-transformers
---
# SentenceTransformer based on intfloat/multilingual-e5-small
This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small). It maps sentences & paragraphs to a 384-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
## Model Details
### Model Description
- **Model Type:** Sentence Transformer
- **Base model:** [intfloat/multilingual-e5-small](https://huggingface.co/intfloat/multilingual-e5-small)
- **Maximum Sequence Length:** 512 tokens
- **Output Dimensionality:** 384 dimensions
- **Similarity Function:** Cosine Similarity
### Model Sources
- **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
- **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
- **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
### Full Model Architecture
```
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: BertModel
(1): Pooling({'word_embedding_dimension': 384, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
```
## Usage
### Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
```bash
pip install -U sentence-transformers
```
Then you can load this model and run inference.
```python
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("codersan/e5Fa_small_v1_phase2")
# Run inference
sentences = [
'مصریان باستان چگونه هرم\u200cها را ساختند؟',
'هرمی\u200cها به عنوان مقبره\u200cهایی برای فراعنه ساخته شدند و هدف از آن\u200cها تأمین عبور ایمن آن\u200cها به زندگی پس از مرگ بود.',
'مزایای بیکاری بین کشورها به طور وسیعی متفاوت است، به طوری که برخی از آنها حمایت بیشتری نسبت به دیگران ارائه می\u200cدهند.',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 384]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
```
## Training Details
### Training Dataset
#### Unnamed Dataset
* Size: 12,000 training samples
* Columns: anchor
and positive
* Approximate statistics based on the first 1000 samples:
| | anchor | positive |
|:--------|:----------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|
| type | string | string |
| details |
آدمهایی هستند که وقتی خوشحالی کنارت نیستند؟
| یک آدمهایی هستند که وقتی شادی کنارت نیستند؟
|
| گله گوزن ها از جاده عبور نمی کنند
| یک گله از گوزن ها از خیابان عبور می کنند
|
| هیچ مردی روی مسواک خم نمیشود و عکس نمیگیرد
| یک مرد خم میشود و دوربینی را نگه میدارد
|
* Loss: [MultipleNegativesRankingLoss
](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters:
```json
{
"scale": 20.0,
"similarity_fct": "cos_sim"
}
```
### Training Hyperparameters
#### Non-Default Hyperparameters
- `per_device_train_batch_size`: 64
- `learning_rate`: 2e-05
- `weight_decay`: 0.01
- `num_train_epochs`: 2
- `batch_sampler`: no_duplicates
#### All Hyperparameters