SentenceTransformer based on intfloat/multilingual-e5-base
This is a sentence-transformers model finetuned from intfloat/multilingual-e5-base on the grag-go-idf-pos-neg dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
Model Details
Model Description
- Model Type: Sentence Transformer
- Base model: intfloat/multilingual-e5-base
- Maximum Sequence Length: 512 tokens
- Output Dimensionality: 768 dimensions
- Similarity Function: Cosine Similarity
- Training Dataset:
Model Sources
- Documentation: Sentence Transformers Documentation
- Repository: Sentence Transformers on GitHub
- Hugging Face: Sentence Transformers on Hugging Face
Full Model Architecture
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
Usage
Direct Usage (Sentence Transformers)
First install the Sentence Transformers library:
pip install -U sentence-transformers
Then you can load this model and run inference.
from sentence_transformers import SentenceTransformer
# Download from the 🤗 Hub
model = SentenceTransformer("Lettria/idf-chunk_embedder-contrastive-after_epoch_1")
# Run inference
sentences = [
'Procédures et démarches: Dépôt du dossier de candidature sur la plateforme des aides régionales (mesdemarches.iledefrance.fr).\nBénéficiaires: Collectivité ou institution - Communes de < 2000 hab, Collectivité ou institution - Communes de 2000 à 10 000 hab, Collectivité ou institution - Communes de 10 000 à 20 000 hab, Collectivité ou institution - Communes de > 20 000 hab, Collectivité ou institution - EPCI, Collectivité ou institution - EPT / Métropole du Grand Paris, Collectivité ou institution - Département, Collectivité ou institution - Bailleurs sociaux, Collectivité ou institution - Autre (GIP, copropriété, EPA...)\nPrécision sure les bénéficiaires: Toutes les structures de droit public ou de droit privé',
'[Collectivité ou institution - Communes de < 2000 hab] (collectivité)',
"[petites entreprises innovantes franciliennes](bénéficiaire) --- INCLUT ---> [Professionnel - Créateur d'entreprise](bénéficiaire)",
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 768]
# Get the similarity scores for the embeddings
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
Evaluation
Metrics
Semantic Similarity
- Dataset:
EmbeddingSimEval
- Evaluated with
EmbeddingSimilarityEvaluator
Metric | Value |
---|---|
pearson_cosine | 0.5344 |
spearman_cosine | 0.4887 |
Binary Classification
- Dataset:
BinaryClassifEval
- Evaluated with
BinaryClassificationEvaluator
Metric | Value |
---|---|
cosine_accuracy | 0.8634 |
cosine_accuracy_threshold | 0.8509 |
cosine_f1 | 0.9181 |
cosine_f1_threshold | 0.8509 |
cosine_precision | 0.8791 |
cosine_recall | 0.9608 |
cosine_ap | 0.9564 |
Training Details
Training Dataset
grag-go-idf-pos-neg
- Dataset: grag-go-idf-pos-neg at ecbf53b
- Size: 6,260 training samples
- Columns:
sentence1
,sentence2
, andlabel
- Approximate statistics based on the first 1000 samples:
sentence1 sentence2 label type string string int details - min: 16 tokens
- mean: 192.75 tokens
- max: 414 tokens
- min: 8 tokens
- mean: 24.08 tokens
- max: 79 tokens
- 0: ~15.70%
- 1: ~84.30%
- Samples:
sentence1 sentence2 label Procédures et démarches: Les porteurs de projet peuvent déposer leurs dossiers de candidature toute l’année sur la plateforme des aides régionales mesdemarches.iledefrance.fr. Après examen par les services de la Région, les élus du Conseil régional désignent les initiatives lauréates et le montant de la dotation régionale prévisionnelle.
Bénéficiaires: Collectivité ou institution - Autre (GIP, copropriété, EPA...), Collectivité ou institution - Bailleurs sociaux, Collectivité ou institution - Communes de 10 000 à 20 000 hab, Collectivité ou institution - Communes de 2000 à 10 000 hab, Collectivité ou institution - Communes de < 2000 hab, Collectivité ou institution - Communes de > 20 000 hab, Collectivité ou institution - Département, Collectivité ou institution - EPCI, Collectivité ou institution - EPT / Métropole du Grand Paris, Collectivité ou institution - Office de tourisme intercommunal, Association - Régie par la loi de 1901, Établissement d'enseignement secondaire, Établissemen...[dotation régionale prévisionnelle] (inferred)
1
Type de project: Pour l'investissement, les dépenses éligibles concernent les aménagements et les rénovations de bâtiments, les constructions et les acquisitions de locaux ainsi que les gros travaux immobiliers.Pour l'équipement, les dépenses éligibles portent sur l'acquisition, la mise en conformité et le renouvellement des équipements destinés à un usage pédagogique, administratif ou destiné aux étudiants.
investissement --- CONCERNE ---> gros travaux immobiliers
1
. Pour les demandes avec devis, transmettez votre demande de versement avec les factures acquittées (dans un délai maximal d'un an). Les factures indiquent un n° de chèque, un règlement CB, un virement,... Le versement prend la forme d'un paiement unique ou d’un paiement en 2 fois. Les dépenses prises en compte en HT portent sur une période maximale de 12 mois.
DIM --- ASSURER ---> financement
0
- Loss:
ContrastiveLoss
with these parameters:{ "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE", "margin": 0.5, "size_average": true }
Evaluation Dataset
grag-go-idf-pos-neg
- Dataset: grag-go-idf-pos-neg at ecbf53b
- Size: 1,662 evaluation samples
- Columns:
sentence1
,sentence2
, andlabel
- Approximate statistics based on the first 1000 samples:
sentence1 sentence2 label type string string int details - min: 24 tokens
- mean: 178.38 tokens
- max: 394 tokens
- min: 8 tokens
- mean: 25.03 tokens
- max: 136 tokens
- 0: ~19.60%
- 1: ~80.40%
- Samples:
sentence1 sentence2 label Type de project: Le Fonds régional pour le tourisme est destiné aux actions ayant l'un de ces objectifs : La création, l’adaptation et le développement de l’offre d’activités et de loisirs ainsi que le renforcement de la sécurisation des sites touristiques et des visiteurs,La digitalisation de l’offre touristique pour accélérer la transformation numérique et favoriser l’innovation,La création d’offres d’hébergements touristiques durables contribuant à l’enrichissement de l’offre touristique régionale,Le soutien aux évènements gastronomiques d’envergure régionale. Afin que les professionnels du tourisme s’adaptent et contribuent à la transition durable de la destination Paris Île-de-France, l’aide régionale est attribuée sur la base de critères d’éco-conditionnalité.
Fonds régional pour le tourisme --- DESTINÉ ---> professionnels du tourisme
1
Type de project: Les projets éligibles doivent être basés sur un projet de développement pluriannuel élaboré par chaque structure bénéficiaire concernée. Le projet de développement s’inscrit dans les orientations de sa fédération.Les formations doivent être professionnalisantes, diplômantes ou continues, en ce qui concerne l’encadrement éducatif et technique et les dirigeants bénévoles et officiels.Une attention particulière est portée sur les formations sur les thématiques de la prévention contre toutes violences, de discrimination et de radicalisation.
dépôt des dossiers --- DÉLAI ---> Commission
0
Type de project: Les thématiques abordées, au titre du programme, comprennent la santé numérique et les risques de dépendance, la protection des données personnelles et la prévention des situations de harcèlement et de cyberharcèlement ; les interventions questionnent aussi les aspects numériques de la vie affective et sexuelle et son corollaire de risques tels que le "sexting", le "Revenge porn", le chantage sexuel et l'impact de la pornographie sur les jeunes. A la demande des établissements, des focus thématiques peuvent être réalisés sur d'autres sujets comme la prévention des phénomènes de prostitution des mineurs, les problématiques liées aux jeux d'argent et de hasard en ligne ou encore la lutte contre la désinformation à travers une approche d'éducation aux médias et à l'information. Les établissements bénéficiaires peuvent choisir jusqu'à deux thématiques qu'ils identifient comme prioritaires.
[sexting] (risque)
1
- Loss:
ContrastiveLoss
with these parameters:{ "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE", "margin": 0.5, "size_average": true }
Training Hyperparameters
Non-Default Hyperparameters
eval_strategy
: epochper_device_train_batch_size
: 4per_device_eval_batch_size
: 4gradient_accumulation_steps
: 8num_train_epochs
: 10warmup_steps
: 626
All Hyperparameters
Click to expand
overwrite_output_dir
: Falsedo_predict
: Falseeval_strategy
: epochprediction_loss_only
: Trueper_device_train_batch_size
: 4per_device_eval_batch_size
: 4per_gpu_train_batch_size
: Noneper_gpu_eval_batch_size
: Nonegradient_accumulation_steps
: 8eval_accumulation_steps
: Nonetorch_empty_cache_steps
: Nonelearning_rate
: 5e-05weight_decay
: 0.0adam_beta1
: 0.9adam_beta2
: 0.999adam_epsilon
: 1e-08max_grad_norm
: 1.0num_train_epochs
: 10max_steps
: -1lr_scheduler_type
: linearlr_scheduler_kwargs
: {}warmup_ratio
: 0.0warmup_steps
: 626log_level
: passivelog_level_replica
: warninglog_on_each_node
: Truelogging_nan_inf_filter
: Truesave_safetensors
: Truesave_on_each_node
: Falsesave_only_model
: Falserestore_callback_states_from_checkpoint
: Falseno_cuda
: Falseuse_cpu
: Falseuse_mps_device
: Falseseed
: 42data_seed
: Nonejit_mode_eval
: Falseuse_ipex
: Falsebf16
: Falsefp16
: Falsefp16_opt_level
: O1half_precision_backend
: autobf16_full_eval
: Falsefp16_full_eval
: Falsetf32
: Nonelocal_rank
: 0ddp_backend
: Nonetpu_num_cores
: Nonetpu_metrics_debug
: Falsedebug
: []dataloader_drop_last
: Falsedataloader_num_workers
: 0dataloader_prefetch_factor
: Nonepast_index
: -1disable_tqdm
: Falseremove_unused_columns
: Truelabel_names
: Noneload_best_model_at_end
: Falseignore_data_skip
: Falsefsdp
: []fsdp_min_num_params
: 0fsdp_config
: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}fsdp_transformer_layer_cls_to_wrap
: Noneaccelerator_config
: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed
: Nonelabel_smoothing_factor
: 0.0optim
: adamw_torchoptim_args
: Noneadafactor
: Falsegroup_by_length
: Falselength_column_name
: lengthddp_find_unused_parameters
: Noneddp_bucket_cap_mb
: Noneddp_broadcast_buffers
: Falsedataloader_pin_memory
: Truedataloader_persistent_workers
: Falseskip_memory_metrics
: Trueuse_legacy_prediction_loop
: Falsepush_to_hub
: Falseresume_from_checkpoint
: Nonehub_model_id
: Nonehub_strategy
: every_savehub_private_repo
: Falsehub_always_push
: Falsegradient_checkpointing
: Falsegradient_checkpointing_kwargs
: Noneinclude_inputs_for_metrics
: Falseeval_do_concat_batches
: Truefp16_backend
: autopush_to_hub_model_id
: Nonepush_to_hub_organization
: Nonemp_parameters
:auto_find_batch_size
: Falsefull_determinism
: Falsetorchdynamo
: Noneray_scope
: lastddp_timeout
: 1800torch_compile
: Falsetorch_compile_backend
: Nonetorch_compile_mode
: Nonedispatch_batches
: Nonesplit_batches
: Noneinclude_tokens_per_second
: Falseinclude_num_input_tokens_seen
: Falseneftune_noise_alpha
: Noneoptim_target_modules
: Nonebatch_eval_metrics
: Falseeval_on_start
: Falseuse_liger_kernel
: Falseeval_use_gather_object
: Falseprompts
: Nonebatch_sampler
: batch_samplermulti_dataset_batch_sampler
: proportional
Training Logs
Click to expand
Epoch | Step | Training Loss | Validation Loss | EmbeddingSimEval_spearman_cosine | BinaryClassifEval_cosine_ap |
---|---|---|---|---|---|
0.0051 | 1 | 0.0194 | - | - | - |
0.0102 | 2 | 0.0198 | - | - | - |
0.0153 | 3 | 0.0146 | - | - | - |
0.0204 | 4 | 0.017 | - | - | - |
0.0256 | 5 | 0.0193 | - | - | - |
0.0307 | 6 | 0.0164 | - | - | - |
0.0358 | 7 | 0.0188 | - | - | - |
0.0409 | 8 | 0.0185 | - | - | - |
0.0460 | 9 | 0.0168 | - | - | - |
0.0511 | 10 | 0.0148 | - | - | - |
0.0562 | 11 | 0.0149 | - | - | - |
0.0613 | 12 | 0.018 | - | - | - |
0.0665 | 13 | 0.0149 | - | - | - |
0.0716 | 14 | 0.0189 | - | - | - |
0.0767 | 15 | 0.0206 | - | - | - |
0.0818 | 16 | 0.0138 | - | - | - |
0.0869 | 17 | 0.0193 | - | - | - |
0.0920 | 18 | 0.0169 | - | - | - |
0.0971 | 19 | 0.014 | - | - | - |
0.1022 | 20 | 0.0151 | - | - | - |
0.1073 | 21 | 0.0157 | - | - | - |
0.1125 | 22 | 0.0127 | - | - | - |
0.1176 | 23 | 0.0159 | - | - | - |
0.1227 | 24 | 0.0184 | - | - | - |
0.1278 | 25 | 0.0188 | - | - | - |
0.1329 | 26 | 0.0191 | - | - | - |
0.1380 | 27 | 0.012 | - | - | - |
0.1431 | 28 | 0.0142 | - | - | - |
0.1482 | 29 | 0.0131 | - | - | - |
0.1534 | 30 | 0.0153 | - | - | - |
0.1585 | 31 | 0.0123 | - | - | - |
0.1636 | 32 | 0.0127 | - | - | - |
0.1687 | 33 | 0.0186 | - | - | - |
0.1738 | 34 | 0.0112 | - | - | - |
0.1789 | 35 | 0.0149 | - | - | - |
0.1840 | 36 | 0.0174 | - | - | - |
0.1891 | 37 | 0.0115 | - | - | - |
0.1942 | 38 | 0.0106 | - | - | - |
0.1994 | 39 | 0.0138 | - | - | - |
0.2045 | 40 | 0.0161 | - | - | - |
0.2096 | 41 | 0.0134 | - | - | - |
0.2147 | 42 | 0.0138 | - | - | - |
0.2198 | 43 | 0.0083 | - | - | - |
0.2249 | 44 | 0.0094 | - | - | - |
0.2300 | 45 | 0.0097 | - | - | - |
0.2351 | 46 | 0.012 | - | - | - |
0.2403 | 47 | 0.0131 | - | - | - |
0.2454 | 48 | 0.0146 | - | - | - |
0.2505 | 49 | 0.0162 | - | - | - |
0.2556 | 50 | 0.0113 | - | - | - |
0.2607 | 51 | 0.0111 | - | - | - |
0.2658 | 52 | 0.0099 | - | - | - |
0.2709 | 53 | 0.0128 | - | - | - |
0.2760 | 54 | 0.0072 | - | - | - |
0.2812 | 55 | 0.0118 | - | - | - |
0.2863 | 56 | 0.0069 | - | - | - |
0.2914 | 57 | 0.0143 | - | - | - |
0.2965 | 58 | 0.0129 | - | - | - |
0.3016 | 59 | 0.0103 | - | - | - |
0.3067 | 60 | 0.0187 | - | - | - |
0.3118 | 61 | 0.0128 | - | - | - |
0.3169 | 62 | 0.0138 | - | - | - |
0.3220 | 63 | 0.021 | - | - | - |
0.3272 | 64 | 0.0142 | - | - | - |
0.3323 | 65 | 0.0144 | - | - | - |
0.3374 | 66 | 0.0164 | - | - | - |
0.3425 | 67 | 0.0115 | - | - | - |
0.3476 | 68 | 0.0122 | - | - | - |
0.3527 | 69 | 0.0125 | - | - | - |
0.3578 | 70 | 0.0119 | - | - | - |
0.3629 | 71 | 0.0098 | - | - | - |
0.3681 | 72 | 0.0112 | - | - | - |
0.3732 | 73 | 0.011 | - | - | - |
0.3783 | 74 | 0.0142 | - | - | - |
0.3834 | 75 | 0.0106 | - | - | - |
0.3885 | 76 | 0.0186 | - | - | - |
0.3936 | 77 | 0.011 | - | - | - |
0.3987 | 78 | 0.0125 | - | - | - |
0.4038 | 79 | 0.0115 | - | - | - |
0.4089 | 80 | 0.0155 | - | - | - |
0.4141 | 81 | 0.0093 | - | - | - |
0.4192 | 82 | 0.017 | - | - | - |
0.4243 | 83 | 0.0106 | - | - | - |
0.4294 | 84 | 0.0115 | - | - | - |
0.4345 | 85 | 0.0105 | - | - | - |
0.4396 | 86 | 0.0105 | - | - | - |
0.4447 | 87 | 0.0117 | - | - | - |
0.4498 | 88 | 0.0104 | - | - | - |
0.4550 | 89 | 0.0093 | - | - | - |
0.4601 | 90 | 0.0125 | - | - | - |
0.4652 | 91 | 0.012 | - | - | - |
0.4703 | 92 | 0.0077 | - | - | - |
0.4754 | 93 | 0.0095 | - | - | - |
0.4805 | 94 | 0.0087 | - | - | - |
0.4856 | 95 | 0.0072 | - | - | - |
0.4907 | 96 | 0.0142 | - | - | - |
0.4958 | 97 | 0.0053 | - | - | - |
0.5010 | 98 | 0.0072 | - | - | - |
0.5061 | 99 | 0.0096 | - | - | - |
0.5112 | 100 | 0.0082 | - | - | - |
0.5163 | 101 | 0.0053 | - | - | - |
0.5214 | 102 | 0.0072 | - | - | - |
0.5265 | 103 | 0.007 | - | - | - |
0.5316 | 104 | 0.0088 | - | - | - |
0.5367 | 105 | 0.0084 | - | - | - |
0.5419 | 106 | 0.0057 | - | - | - |
0.5470 | 107 | 0.0092 | - | - | - |
0.5521 | 108 | 0.0074 | - | - | - |
0.5572 | 109 | 0.0043 | - | - | - |
0.5623 | 110 | 0.0092 | - | - | - |
0.5674 | 111 | 0.0114 | - | - | - |
0.5725 | 112 | 0.0094 | - | - | - |
0.5776 | 113 | 0.0073 | - | - | - |
0.5827 | 114 | 0.0103 | - | - | - |
0.5879 | 115 | 0.0091 | - | - | - |
0.5930 | 116 | 0.0064 | - | - | - |
0.5981 | 117 | 0.011 | - | - | - |
0.6032 | 118 | 0.0085 | - | - | - |
0.6083 | 119 | 0.0061 | - | - | - |
0.6134 | 120 | 0.0036 | - | - | - |
0.6185 | 121 | 0.0087 | - | - | - |
0.6236 | 122 | 0.0072 | - | - | - |
0.6288 | 123 | 0.0028 | - | - | - |
0.6339 | 124 | 0.0116 | - | - | - |
0.6390 | 125 | 0.0156 | - | - | - |
0.6441 | 126 | 0.0048 | - | - | - |
0.6492 | 127 | 0.0049 | - | - | - |
0.6543 | 128 | 0.0048 | - | - | - |
0.6594 | 129 | 0.0021 | - | - | - |
0.6645 | 130 | 0.0085 | - | - | - |
0.6696 | 131 | 0.0058 | - | - | - |
0.6748 | 132 | 0.0067 | - | - | - |
0.6799 | 133 | 0.0162 | - | - | - |
0.6850 | 134 | 0.0056 | - | - | - |
0.6901 | 135 | 0.0035 | - | - | - |
0.6952 | 136 | 0.0069 | - | - | - |
0.7003 | 137 | 0.0018 | - | - | - |
0.7054 | 138 | 0.0026 | - | - | - |
0.7105 | 139 | 0.0111 | - | - | - |
0.7157 | 140 | 0.0041 | - | - | - |
0.7208 | 141 | 0.0098 | - | - | - |
0.7259 | 142 | 0.0045 | - | - | - |
0.7310 | 143 | 0.0059 | - | - | - |
0.7361 | 144 | 0.0068 | - | - | - |
0.7412 | 145 | 0.0065 | - | - | - |
0.7463 | 146 | 0.0085 | - | - | - |
0.7514 | 147 | 0.0077 | - | - | - |
0.7565 | 148 | 0.0047 | - | - | - |
0.7617 | 149 | 0.005 | - | - | - |
0.7668 | 150 | 0.0031 | - | - | - |
0.7719 | 151 | 0.0042 | - | - | - |
0.7770 | 152 | 0.0054 | - | - | - |
0.7821 | 153 | 0.0021 | - | - | - |
0.7872 | 154 | 0.004 | - | - | - |
0.7923 | 155 | 0.0027 | - | - | - |
0.7974 | 156 | 0.0033 | - | - | - |
0.8026 | 157 | 0.0044 | - | - | - |
0.8077 | 158 | 0.0063 | - | - | - |
0.8128 | 159 | 0.0078 | - | - | - |
0.8179 | 160 | 0.0046 | - | - | - |
0.8230 | 161 | 0.0076 | - | - | - |
0.8281 | 162 | 0.0136 | - | - | - |
0.8332 | 163 | 0.0048 | - | - | - |
0.8383 | 164 | 0.0049 | - | - | - |
0.8435 | 165 | 0.0048 | - | - | - |
0.8486 | 166 | 0.0064 | - | - | - |
0.8537 | 167 | 0.0038 | - | - | - |
0.8588 | 168 | 0.0087 | - | - | - |
0.8639 | 169 | 0.0067 | - | - | - |
0.8690 | 170 | 0.0011 | - | - | - |
0.8741 | 171 | 0.0067 | - | - | - |
0.8792 | 172 | 0.0054 | - | - | - |
0.8843 | 173 | 0.0069 | - | - | - |
0.8895 | 174 | 0.0084 | - | - | - |
0.8946 | 175 | 0.0038 | - | - | - |
0.8997 | 176 | 0.0029 | - | - | - |
0.9048 | 177 | 0.002 | - | - | - |
0.9099 | 178 | 0.0073 | - | - | - |
0.9150 | 179 | 0.0069 | - | - | - |
0.9201 | 180 | 0.0042 | - | - | - |
0.9252 | 181 | 0.0037 | - | - | - |
0.9304 | 182 | 0.0034 | - | - | - |
0.9355 | 183 | 0.0038 | - | - | - |
0.9406 | 184 | 0.0038 | - | - | - |
0.9457 | 185 | 0.007 | - | - | - |
0.9508 | 186 | 0.0019 | - | - | - |
0.9559 | 187 | 0.0073 | - | - | - |
0.9610 | 188 | 0.0054 | - | - | - |
0.9661 | 189 | 0.0082 | - | - | - |
0.9712 | 190 | 0.0058 | - | - | - |
0.9764 | 191 | 0.0028 | - | - | - |
0.9815 | 192 | 0.0036 | - | - | - |
0.9866 | 193 | 0.0046 | - | - | - |
0.9917 | 194 | 0.0066 | - | - | - |
0.9968 | 195 | 0.0056 | 0.0152 | 0.4893 | 0.9557 |
1.0019 | 196 | 0.0084 | - | - | - |
1.0070 | 197 | 0.002 | - | - | - |
1.0121 | 198 | 0.0053 | - | - | - |
1.0173 | 199 | 0.0035 | - | - | - |
1.0224 | 200 | 0.0037 | - | - | - |
1.0275 | 201 | 0.0068 | - | - | - |
1.0326 | 202 | 0.0014 | - | - | - |
1.0377 | 203 | 0.0023 | - | - | - |
1.0428 | 204 | 0.0047 | - | - | - |
1.0479 | 205 | 0.004 | - | - | - |
1.0530 | 206 | 0.0031 | - | - | - |
1.0581 | 207 | 0.0014 | - | - | - |
1.0633 | 208 | 0.0011 | - | - | - |
1.0684 | 209 | 0.0035 | - | - | - |
1.0735 | 210 | 0.0019 | - | - | - |
1.0786 | 211 | 0.0071 | - | - | - |
1.0837 | 212 | 0.0048 | - | - | - |
1.0888 | 213 | 0.0019 | - | - | - |
1.0939 | 214 | 0.0013 | - | - | - |
1.0990 | 215 | 0.0021 | - | - | - |
1.1042 | 216 | 0.0097 | - | - | - |
1.1093 | 217 | 0.0054 | - | - | - |
1.1144 | 218 | 0.0037 | - | - | - |
1.1195 | 219 | 0.006 | - | - | - |
1.1246 | 220 | 0.0053 | - | - | - |
1.1297 | 221 | 0.0051 | - | - | - |
1.1348 | 222 | 0.0076 | - | - | - |
1.1399 | 223 | 0.0017 | - | - | - |
1.1450 | 224 | 0.0147 | - | - | - |
1.1502 | 225 | 0.0045 | - | - | - |
1.1553 | 226 | 0.0034 | - | - | - |
1.1604 | 227 | 0.0029 | - | - | - |
1.1655 | 228 | 0.0032 | - | - | - |
1.1706 | 229 | 0.0072 | - | - | - |
1.1757 | 230 | 0.0067 | - | - | - |
1.1808 | 231 | 0.0075 | - | - | - |
1.1859 | 232 | 0.0072 | - | - | - |
1.1911 | 233 | 0.0024 | - | - | - |
1.1962 | 234 | 0.0033 | - | - | - |
1.2013 | 235 | 0.0025 | - | - | - |
1.2064 | 236 | 0.0019 | - | - | - |
1.2115 | 237 | 0.0011 | - | - | - |
1.2166 | 238 | 0.0033 | - | - | - |
1.2217 | 239 | 0.0051 | - | - | - |
1.2268 | 240 | 0.0017 | - | - | - |
1.2319 | 241 | 0.0027 | - | - | - |
1.2371 | 242 | 0.0023 | - | - | - |
1.2422 | 243 | 0.0043 | - | - | - |
1.2473 | 244 | 0.0054 | - | - | - |
1.2524 | 245 | 0.0033 | - | - | - |
1.2575 | 246 | 0.0029 | - | - | - |
1.2626 | 247 | 0.0046 | - | - | - |
1.2677 | 248 | 0.0018 | - | - | - |
1.2728 | 249 | 0.0017 | - | - | - |
1.2780 | 250 | 0.0009 | - | - | - |
1.2831 | 251 | 0.0062 | - | - | - |
1.2882 | 252 | 0.0062 | - | - | - |
1.2933 | 253 | 0.0048 | - | - | - |
1.2984 | 254 | 0.0017 | - | - | - |
1.3035 | 255 | 0.0008 | - | - | - |
1.3086 | 256 | 0.0029 | - | - | - |
1.3137 | 257 | 0.0008 | - | - | - |
1.3188 | 258 | 0.0027 | - | - | - |
1.3240 | 259 | 0.0032 | - | - | - |
1.3291 | 260 | 0.0025 | - | - | - |
1.3342 | 261 | 0.0042 | - | - | - |
1.3393 | 262 | 0.0034 | - | - | - |
1.3444 | 263 | 0.0016 | - | - | - |
1.3495 | 264 | 0.0025 | - | - | - |
1.3546 | 265 | 0.0049 | - | - | - |
1.3597 | 266 | 0.0009 | - | - | - |
1.3649 | 267 | 0.001 | - | - | - |
1.3700 | 268 | 0.0019 | - | - | - |
1.3751 | 269 | 0.001 | - | - | - |
1.3802 | 270 | 0.0058 | - | - | - |
1.3853 | 271 | 0.0079 | - | - | - |
1.3904 | 272 | 0.0053 | - | - | - |
1.3955 | 273 | 0.0028 | - | - | - |
1.4006 | 274 | 0.0016 | - | - | - |
1.4058 | 275 | 0.0019 | - | - | - |
1.4109 | 276 | 0.0031 | - | - | - |
1.4160 | 277 | 0.0013 | - | - | - |
1.4211 | 278 | 0.0012 | - | - | - |
1.4262 | 279 | 0.0037 | - | - | - |
1.4313 | 280 | 0.0014 | - | - | - |
1.4364 | 281 | 0.0037 | - | - | - |
1.4415 | 282 | 0.0009 | - | - | - |
1.4466 | 283 | 0.0012 | - | - | - |
1.4518 | 284 | 0.001 | - | - | - |
1.4569 | 285 | 0.005 | - | - | - |
1.4620 | 286 | 0.004 | - | - | - |
1.4671 | 287 | 0.0038 | - | - | - |
1.4722 | 288 | 0.0019 | - | - | - |
1.4773 | 289 | 0.0023 | - | - | - |
1.4824 | 290 | 0.0037 | - | - | - |
1.4875 | 291 | 0.0043 | - | - | - |
1.4927 | 292 | 0.0012 | - | - | - |
1.4978 | 293 | 0.0018 | - | - | - |
1.5029 | 294 | 0.0016 | - | - | - |
1.5080 | 295 | 0.0014 | - | - | - |
1.5131 | 296 | 0.0022 | - | - | - |
1.5182 | 297 | 0.0025 | - | - | - |
1.5233 | 298 | 0.0014 | - | - | - |
1.5284 | 299 | 0.0041 | - | - | - |
1.5335 | 300 | 0.0039 | - | - | - |
1.5387 | 301 | 0.0013 | - | - | - |
1.5438 | 302 | 0.0023 | - | - | - |
1.5489 | 303 | 0.0041 | - | - | - |
1.5540 | 304 | 0.0019 | - | - | - |
1.5591 | 305 | 0.0041 | - | - | - |
1.5642 | 306 | 0.0035 | - | - | - |
1.5693 | 307 | 0.0009 | - | - | - |
1.5744 | 308 | 0.001 | - | - | - |
1.5796 | 309 | 0.0038 | - | - | - |
1.5847 | 310 | 0.0006 | - | - | - |
1.5898 | 311 | 0.0017 | - | - | - |
1.5949 | 312 | 0.0043 | - | - | - |
1.6 | 313 | 0.0014 | - | - | - |
1.6051 | 314 | 0.0018 | - | - | - |
1.6102 | 315 | 0.0022 | - | - | - |
1.6153 | 316 | 0.0007 | - | - | - |
1.6204 | 317 | 0.0016 | - | - | - |
1.6256 | 318 | 0.0075 | - | - | - |
1.6307 | 319 | 0.0005 | - | - | - |
1.6358 | 320 | 0.0025 | - | - | - |
1.6409 | 321 | 0.0006 | - | - | - |
1.6460 | 322 | 0.0024 | - | - | - |
1.6511 | 323 | 0.0025 | - | - | - |
1.6562 | 324 | 0.0011 | - | - | - |
1.6613 | 325 | 0.0011 | - | - | - |
1.6665 | 326 | 0.0022 | - | - | - |
1.6716 | 327 | 0.0021 | - | - | - |
1.6767 | 328 | 0.0007 | - | - | - |
1.6818 | 329 | 0.0035 | - | - | - |
1.6869 | 330 | 0.0006 | - | - | - |
1.6920 | 331 | 0.0037 | - | - | - |
1.6971 | 332 | 0.0016 | - | - | - |
1.7022 | 333 | 0.0026 | - | - | - |
1.7073 | 334 | 0.0035 | - | - | - |
1.7125 | 335 | 0.0006 | - | - | - |
1.7176 | 336 | 0.0009 | - | - | - |
1.7227 | 337 | 0.0041 | - | - | - |
1.7278 | 338 | 0.0007 | - | - | - |
1.7329 | 339 | 0.0013 | - | - | - |
1.7380 | 340 | 0.0081 | - | - | - |
1.7431 | 341 | 0.0021 | - | - | - |
1.7482 | 342 | 0.003 | - | - | - |
1.7534 | 343 | 0.0033 | - | - | - |
1.7585 | 344 | 0.0015 | - | - | - |
1.7636 | 345 | 0.0028 | - | - | - |
1.7687 | 346 | 0.0025 | - | - | - |
1.7738 | 347 | 0.0033 | - | - | - |
1.7789 | 348 | 0.0019 | - | - | - |
1.7840 | 349 | 0.0052 | - | - | - |
1.7891 | 350 | 0.0022 | - | - | - |
1.7942 | 351 | 0.005 | - | - | - |
1.7994 | 352 | 0.0042 | - | - | - |
1.8045 | 353 | 0.0017 | - | - | - |
1.8096 | 354 | 0.0017 | - | - | - |
1.8147 | 355 | 0.0037 | - | - | - |
1.8198 | 356 | 0.004 | - | - | - |
1.8249 | 357 | 0.001 | - | - | - |
1.8300 | 358 | 0.0022 | - | - | - |
1.8351 | 359 | 0.003 | - | - | - |
1.8403 | 360 | 0.0006 | - | - | - |
1.8454 | 361 | 0.0009 | - | - | - |
1.8505 | 362 | 0.0009 | - | - | - |
1.8556 | 363 | 0.001 | - | - | - |
1.8607 | 364 | 0.0013 | - | - | - |
1.8658 | 365 | 0.004 | - | - | - |
1.8709 | 366 | 0.0033 | - | - | - |
1.8760 | 367 | 0.0016 | - | - | - |
1.8812 | 368 | 0.0038 | - | - | - |
1.8863 | 369 | 0.0007 | - | - | - |
1.8914 | 370 | 0.0003 | - | - | - |
1.8965 | 371 | 0.0007 | - | - | - |
1.9016 | 372 | 0.001 | - | - | - |
1.9067 | 373 | 0.0029 | - | - | - |
1.9118 | 374 | 0.0046 | - | - | - |
1.9169 | 375 | 0.0004 | - | - | - |
1.9220 | 376 | 0.0005 | - | - | - |
1.9272 | 377 | 0.0002 | - | - | - |
1.9323 | 378 | 0.0022 | - | - | - |
1.9374 | 379 | 0.0025 | - | - | - |
1.9425 | 380 | 0.0004 | - | - | - |
1.9476 | 381 | 0.0043 | - | - | - |
1.9527 | 382 | 0.0015 | - | - | - |
1.9578 | 383 | 0.0012 | - | - | - |
1.9629 | 384 | 0.0014 | - | - | - |
1.9681 | 385 | 0.0031 | - | - | - |
1.9732 | 386 | 0.0006 | - | - | - |
1.9783 | 387 | 0.0035 | - | - | - |
1.9834 | 388 | 0.0062 | - | - | - |
1.9885 | 389 | 0.0022 | - | - | - |
1.9936 | 390 | 0.0027 | - | - | - |
1.9987 | 391 | 0.0014 | 0.0157 | 0.4887 | 0.9564 |
Framework Versions
- Python: 3.11.9
- Sentence Transformers: 3.3.1
- Transformers: 4.45.2
- PyTorch: 2.4.1+cu121
- Accelerate: 1.2.1
- Datasets: 3.2.0
- Tokenizers: 0.20.3
Citation
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
author = "Reimers, Nils and Gurevych, Iryna",
booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
month = "11",
year = "2019",
publisher = "Association for Computational Linguistics",
url = "https://arxiv.org/abs/1908.10084",
}
ContrastiveLoss
@inproceedings{hadsell2006dimensionality,
author={Hadsell, R. and Chopra, S. and LeCun, Y.},
booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
title={Dimensionality Reduction by Learning an Invariant Mapping},
year={2006},
volume={2},
number={},
pages={1735-1742},
doi={10.1109/CVPR.2006.100}
}
- Downloads last month
- 4
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.
Model tree for Lettria/idf-go_embedder-contrastive-after_epoch_1
Base model
intfloat/multilingual-e5-baseEvaluation results
- Pearson Cosine on EmbeddingSimEvalself-reported0.534
- Spearman Cosine on EmbeddingSimEvalself-reported0.489
- Cosine Accuracy on BinaryClassifEvalself-reported0.863
- Cosine Accuracy Threshold on BinaryClassifEvalself-reported0.851
- Cosine F1 on BinaryClassifEvalself-reported0.918
- Cosine F1 Threshold on BinaryClassifEvalself-reported0.851
- Cosine Precision on BinaryClassifEvalself-reported0.879
- Cosine Recall on BinaryClassifEvalself-reported0.961
- Cosine Ap on BinaryClassifEvalself-reported0.956