romain125 commited on
Commit
966cb07
·
verified ·
1 Parent(s): 49d5f7c

Add new SentenceTransformer model

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ tokenizer.json filter=lfs diff=lfs merge=lfs -text
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,515 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ tags:
3
+ - sentence-transformers
4
+ - sentence-similarity
5
+ - feature-extraction
6
+ - generated_from_trainer
7
+ - dataset_size:6260
8
+ - loss:ContrastiveLoss
9
+ base_model: intfloat/multilingual-e5-base
10
+ widget:
11
+ - source_sentence: 'Type de project: Le Fonds régional pour le tourisme est destiné
12
+ aux actions ayant l''un de ces objectifs : La création, l’adaptation et le développement
13
+ de l’offre d’activités et de loisirs ainsi que le renforcement de la sécurisation
14
+ des sites touristiques et des visiteurs,La digitalisation de l’offre touristique
15
+ pour accélérer la transformation numérique et favoriser l’innovation,La création
16
+ d’offres d’hébergements touristiques durables contribuant à l’enrichissement de
17
+ l’offre touristique régionale,Le soutien aux évènements gastronomiques d’envergure
18
+ régionale. Afin que les professionnels du tourisme s’adaptent et contribuent à
19
+ la transition durable de la destination Paris Île-de-France, l’aide régionale
20
+ est attribuée sur la base de critères d’éco-conditionnalité.'
21
+ sentences:
22
+ - '[aide](concept) --- DÉPOSER_DOSSIER_SUR ---> [plateforme en ligne](plateforme)'
23
+ - '[modalités d’exploitation] (concept)'
24
+ - '[Date de début] (concept)'
25
+ - source_sentence: 'Type de project: Actions de valorisation (expos physiques ou virtuelles,
26
+ journées d’étude, site internet, publications, documentaires…),Outils de médiation (cartes
27
+ et itinéraires papier ou numériques, livrets de visite, outils numériques, multimédia,
28
+ parcours d’interprétation…),Dispositifs pédagogiques (mallettes pédagogiques,
29
+ Moocs, supports de visite à destination des jeunes…),Événements rayonnant à l’échelle
30
+ de l’Île-de-France. Une attention particulière sera portée à la qualité des contenus,
31
+ à l’originalité et la pertinence des outils ou actions proposés, et à leur adéquation
32
+ avec les publics ciblés.'
33
+ sentences:
34
+ - '[Clubs sportifs agréés](bénéficiaire) --- ÉLIGIBLE_POUR ---> [Dossier de candidature](document)'
35
+ - '[Événements rayonnant à l’échelle de l’Île-de-France](projet) --- ÉVALUÉ_PAR
36
+ ---> [originalité](critère)'
37
+ - '[aide](concept) --- DÉPOSER_DOSSIER_SUR ---> [plateforme en ligne](plateforme)'
38
+ - source_sentence: 'Type de project: Actions de valorisation (expos physiques ou virtuelles,
39
+ journées d’étude, site internet, publications, documentaires…),Outils de médiation (cartes
40
+ et itinéraires papier ou numériques, livrets de visite, outils numériques, multimédia,
41
+ parcours d’interprétation…),Dispositifs pédagogiques (mallettes pédagogiques,
42
+ Moocs, supports de visite à destination des jeunes…),Événements rayonnant à l’échelle
43
+ de l’Île-de-France. Une attention particulière sera portée à la qualité des contenus,
44
+ à l’originalité et la pertinence des outils ou actions proposés, et à leur adéquation
45
+ avec les publics ciblés.'
46
+ sentences:
47
+ - '[projets éligibles](projet) --- CONTRIBUE_ANIMATION ---> [résidences étudiantes
48
+ à caractère social](lieu)'
49
+ - '[adéquation avec les publics ciblés] (critère)'
50
+ - '[[email protected]] (email)'
51
+ - source_sentence: 'Aide proposée par Région IDF: C''POSSIBLE : Favoriser l''insertion
52
+ professionnelle des lycéens
53
+
54
+ (Nom alternatif de l''aide: École-Entreprise - C''Possible : Favoriser l''insertion
55
+ professionnelle des lycéens)'
56
+ sentences:
57
+ - '[Dossier de candidature](document) --- DISPONIBLE_SUR ---> [mesdemarches.iledefrance.fr](plateforme)'
58
+ - '[outils collaboratifs] (concept)'
59
+ - '[École-Entreprise - C''Possible] (programme)'
60
+ - source_sentence: 'Type de project: Les thématiques abordées, au titre du programme,
61
+ comprennent la santé numérique et les risques de dépendance, la protection des
62
+ données personnelles et la prévention des situations de harcèlement et de cyberharcèlement
63
+ ; les interventions questionnent aussi les aspects numériques de la vie affective
64
+ et sexuelle et son corollaire de risques tels que le "sexting", le "Revenge porn",
65
+ le chantage sexuel et l''impact de la pornographie sur les jeunes.   A la demande
66
+ des établissements, des focus thématiques peuvent être réalisés sur d''autres
67
+ sujets comme la prévention des phénomènes de prostitution des mineurs, les problématiques
68
+ liées aux jeux d''argent et de hasard en ligne ou encore la lutte contre la désinformation
69
+ à travers une approche d''éducation aux médias et à l''information.   Les établissements
70
+ bénéficiaires peuvent choisir jusqu''à deux thématiques qu''ils identifient comme
71
+ prioritaires.'
72
+ sentences:
73
+ - '[petites entreprises innovantes franciliennes](bénéficiaire) --- INCLUT --->
74
+ [Professionnel - Créateur d''entreprise](bénéficiaire)'
75
+ - '[prévention du cyberharcèlement] (thématique)'
76
+ - '[appel à projets](projet) --- RÉPOND_À ---> [entreprise](organisation)'
77
+ datasets:
78
+ - Lettria/GRAG-GO-IDF-Pos-Neg
79
+ pipeline_tag: sentence-similarity
80
+ library_name: sentence-transformers
81
+ metrics:
82
+ - pearson_cosine
83
+ - spearman_cosine
84
+ - cosine_accuracy
85
+ - cosine_accuracy_threshold
86
+ - cosine_f1
87
+ - cosine_f1_threshold
88
+ - cosine_precision
89
+ - cosine_recall
90
+ - cosine_ap
91
+ model-index:
92
+ - name: SentenceTransformer based on intfloat/multilingual-e5-base
93
+ results:
94
+ - task:
95
+ type: semantic-similarity
96
+ name: Semantic Similarity
97
+ dataset:
98
+ name: EmbeddingSimEval
99
+ type: EmbeddingSimEval
100
+ metrics:
101
+ - type: pearson_cosine
102
+ value: 0.3639192711147146
103
+ name: Pearson Cosine
104
+ - type: spearman_cosine
105
+ value: 0.38169322333084305
106
+ name: Spearman Cosine
107
+ - task:
108
+ type: binary-classification
109
+ name: Binary Classification
110
+ dataset:
111
+ name: BinaryClassifEval
112
+ type: BinaryClassifEval
113
+ metrics:
114
+ - type: cosine_accuracy
115
+ value: 0.8182912154031288
116
+ name: Cosine Accuracy
117
+ - type: cosine_accuracy_threshold
118
+ value: 0.9358570575714111
119
+ name: Cosine Accuracy Threshold
120
+ - type: cosine_f1
121
+ value: 0.8961525366019748
122
+ name: Cosine F1
123
+ - type: cosine_f1_threshold
124
+ value: 0.8844354152679443
125
+ name: Cosine F1 Threshold
126
+ - type: cosine_precision
127
+ value: 0.8163771712158809
128
+ name: Cosine Precision
129
+ - type: cosine_recall
130
+ value: 0.9932075471698113
131
+ name: Cosine Recall
132
+ - type: cosine_ap
133
+ value: 0.9359358880785346
134
+ name: Cosine Ap
135
+ ---
136
+
137
+ # SentenceTransformer based on intfloat/multilingual-e5-base
138
+
139
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [intfloat/multilingual-e5-base](https://huggingface.co/intfloat/multilingual-e5-base) on the [grag-go-idf-pos-neg](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg) dataset. It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
140
+
141
+ ## Model Details
142
+
143
+ ### Model Description
144
+ - **Model Type:** Sentence Transformer
145
+ - **Base model:** [intfloat/multilingual-e5-base](https://huggingface.co/intfloat/multilingual-e5-base) <!-- at revision d13f1b27baf31030b7fd040960d60d909913633f -->
146
+ - **Maximum Sequence Length:** 512 tokens
147
+ - **Output Dimensionality:** 768 dimensions
148
+ - **Similarity Function:** Cosine Similarity
149
+ - **Training Dataset:**
150
+ - [grag-go-idf-pos-neg](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg)
151
+ <!-- - **Language:** Unknown -->
152
+ <!-- - **License:** Unknown -->
153
+
154
+ ### Model Sources
155
+
156
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
157
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
158
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
159
+
160
+ ### Full Model Architecture
161
+
162
+ ```
163
+ SentenceTransformer(
164
+ (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
165
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
166
+ (2): Normalize()
167
+ )
168
+ ```
169
+
170
+ ## Usage
171
+
172
+ ### Direct Usage (Sentence Transformers)
173
+
174
+ First install the Sentence Transformers library:
175
+
176
+ ```bash
177
+ pip install -U sentence-transformers
178
+ ```
179
+
180
+ Then you can load this model and run inference.
181
+ ```python
182
+ from sentence_transformers import SentenceTransformer
183
+
184
+ # Download from the 🤗 Hub
185
+ model = SentenceTransformer("Lettria/idf-go_embedder-contrastive")
186
+ # Run inference
187
+ sentences = [
188
+ 'Type de project: Les thématiques abordées, au titre du programme, comprennent la santé numérique et les risques de dépendance, la protection des données personnelles et la prévention des situations de harcèlement et de cyberharcèlement ; les interventions questionnent aussi les aspects numériques de la vie affective et sexuelle et son corollaire de risques tels que le "sexting", le "Revenge porn", le chantage sexuel et l\'impact de la pornographie sur les jeunes. \xa0 A la demande des établissements, des focus thématiques peuvent être réalisés sur d\'autres sujets comme la prévention des phénomènes de prostitution des mineurs, les problématiques liées aux jeux d\'argent et de hasard en ligne ou encore la lutte contre la désinformation à travers une approche d\'éducation aux médias et à l\'information. \xa0 Les établissements bénéficiaires\xa0peuvent choisir jusqu\'à deux thématiques qu\'ils identifient comme prioritaires.',
189
+ "[petites entreprises innovantes franciliennes](bénéficiaire) --- INCLUT ---> [Professionnel - Créateur d'entreprise](bénéficiaire)",
190
+ '[prévention du cyberharcèlement] (thématique)',
191
+ ]
192
+ embeddings = model.encode(sentences)
193
+ print(embeddings.shape)
194
+ # [3, 768]
195
+
196
+ # Get the similarity scores for the embeddings
197
+ similarities = model.similarity(embeddings, embeddings)
198
+ print(similarities.shape)
199
+ # [3, 3]
200
+ ```
201
+
202
+ <!--
203
+ ### Direct Usage (Transformers)
204
+
205
+ <details><summary>Click to see the direct usage in Transformers</summary>
206
+
207
+ </details>
208
+ -->
209
+
210
+ <!--
211
+ ### Downstream Usage (Sentence Transformers)
212
+
213
+ You can finetune this model on your own dataset.
214
+
215
+ <details><summary>Click to expand</summary>
216
+
217
+ </details>
218
+ -->
219
+
220
+ <!--
221
+ ### Out-of-Scope Use
222
+
223
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
224
+ -->
225
+
226
+ ## Evaluation
227
+
228
+ ### Metrics
229
+
230
+ #### Semantic Similarity
231
+
232
+ * Dataset: `EmbeddingSimEval`
233
+ * Evaluated with [<code>EmbeddingSimilarityEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.EmbeddingSimilarityEvaluator)
234
+
235
+ | Metric | Value |
236
+ |:--------------------|:-----------|
237
+ | pearson_cosine | 0.3639 |
238
+ | **spearman_cosine** | **0.3817** |
239
+
240
+ #### Binary Classification
241
+
242
+ * Dataset: `BinaryClassifEval`
243
+ * Evaluated with [<code>BinaryClassificationEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.BinaryClassificationEvaluator)
244
+
245
+ | Metric | Value |
246
+ |:--------------------------|:-----------|
247
+ | cosine_accuracy | 0.8183 |
248
+ | cosine_accuracy_threshold | 0.9359 |
249
+ | cosine_f1 | 0.8962 |
250
+ | cosine_f1_threshold | 0.8844 |
251
+ | cosine_precision | 0.8164 |
252
+ | cosine_recall | 0.9932 |
253
+ | **cosine_ap** | **0.9359** |
254
+
255
+ <!--
256
+ ## Bias, Risks and Limitations
257
+
258
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
259
+ -->
260
+
261
+ <!--
262
+ ### Recommendations
263
+
264
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
265
+ -->
266
+
267
+ ## Training Details
268
+
269
+ ### Training Dataset
270
+
271
+ #### grag-go-idf-pos-neg
272
+
273
+ * Dataset: [grag-go-idf-pos-neg](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg) at [ecbf53b](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg/tree/ecbf53b42e74acaa0a5a7263640fb2f3dd53cc05)
274
+ * Size: 6,260 training samples
275
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
276
+ * Approximate statistics based on the first 1000 samples:
277
+ | | sentence1 | sentence2 | label |
278
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
279
+ | type | string | string | int |
280
+ | details | <ul><li>min: 24 tokens</li><li>mean: 195.35 tokens</li><li>max: 429 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 24.36 tokens</li><li>max: 75 tokens</li></ul> | <ul><li>0: ~16.40%</li><li>1: ~83.60%</li></ul> |
281
+ * Samples:
282
+ | sentence1 | sentence2 | label |
283
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:-------------------------------------------------------------------------|:---------------|
284
+ | <code>Procédures et démarches: L'appel à projets Lycées Éco-Responsables est organisé par la Région tous les ans, en avril. Pour y participer : Rendez-vous sur la plateforme des aides mesdemarches.iledefrance.fr.Compléter votre dossier avec le descriptif et le chiffrage des actions proposées, ainsi que le public visé et les résultats escomptés. L’implication large des acteurs de la communauté scolaire (élèves, enseignants, agents des lycées, direction), les moyens mis en œuvre et la structuration du projet, ainsi que son caractère innovant, seront des critères d’appréciation de la qualité de votre dossier. Selon les capacités de l’enveloppe budgétaire, les bénéficiaires seront informés de la décision votée en Commission permanente entre fin septembre et début octobre 2024. Si le projet est retenu, une notification sera envoyée au proviseur (e) de l’établissement pour informer du projet ou des projets financé(s) et du ou des montant(s) alloué(s). A cela, il est demandé aux établissements...</code> | <code>[Commission permanente] (organisation)</code> | <code>1</code> |
285
+ | <code>Procédures et démarches: Consultation de l'appel à projets et dépôt de candidature en ligne ici :http://leaderpia.iledefrance.fr/SESAME-Filieres-France-2030<br>Bénéficiaires: Professionnel - Chercheur, Établissement de recherche et laboratoire<br>Précision sure les bénéficiaires: Le projet est présenté par un unique porteur, prioritairement un organisme ou établissement d'enseignement supérieur et de recherche ou de transfert de technologie, localisé en Île-de-France.Il peut également être porté par une entreprise ou éventuellement par une structure fédérant plusieurs entreprises, voire une entité représentative des entreprises de la filière (telle une fédération professionnelle, un GIE, une association, un pôle de compétitivité...), pour autant que les projets associent étroitement des organismes de recherche franciliens. Dans ce cas, ils doivent obligatoirement être associés à leur gouvernance et à leur programme d'activités.</code> | <code>[Chercheur] (personne)</code> | <code>1</code> |
286
+ | <code>Procédures et démarches: Quand déposer la demande ?La demande de subvention doit être déposée avant tout commencement d'exécution.Où déposer la demande ? Le dépôt des demandes de subvention doit se faire sur la plateforme des aides régionales mesdemarches.iledefrance.fr. sélectionner le téléservice « Aides aux copropriétés en difficulté labellisées par la Région: ingénierie et travaux »  Qui peut déposer la demande ? L'opérateur chargé du suivi-animation,La collectivité d'implantation,Le cas échéant , le mandataire de la copropriété (syndic, administrateur provisoire).<br>Bénéficiaires: Collectivité ou institution - Autre (GIP, copropriété, EPA...), Collectivité ou institution - Communes de 10 000 à 20 000 hab, Collectivité ou institution - Communes de < 2000 hab, Collectivité ou institution - Département, Collectivité ou institution - EPCI, Collectivité ou institution - EPT / Métropole du Grand Paris, Particulier - Francilien<br>Précision sure les bénéficiaires: Les syndicats des coprop...</code> | <code>[collectivités territoriales d'implantation] (bénéficiaire)</code> | <code>1</code> |
287
+ * Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
288
+ ```json
289
+ {
290
+ "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
291
+ "margin": 0.5,
292
+ "size_average": true
293
+ }
294
+ ```
295
+
296
+ ### Evaluation Dataset
297
+
298
+ #### grag-go-idf-pos-neg
299
+
300
+ * Dataset: [grag-go-idf-pos-neg](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg) at [ecbf53b](https://huggingface.co/datasets/Lettria/GRAG-GO-IDF-Pos-Neg/tree/ecbf53b42e74acaa0a5a7263640fb2f3dd53cc05)
301
+ * Size: 1,662 evaluation samples
302
+ * Columns: <code>sentence1</code>, <code>sentence2</code>, and <code>label</code>
303
+ * Approximate statistics based on the first 1000 samples:
304
+ | | sentence1 | sentence2 | label |
305
+ |:--------|:-------------------------------------------------------------------------------------|:----------------------------------------------------------------------------------|:------------------------------------------------|
306
+ | type | string | string | int |
307
+ | details | <ul><li>min: 24 tokens</li><li>mean: 179.15 tokens</li><li>max: 394 tokens</li></ul> | <ul><li>min: 8 tokens</li><li>mean: 24.58 tokens</li><li>max: 73 tokens</li></ul> | <ul><li>0: ~20.60%</li><li>1: ~79.40%</li></ul> |
308
+ * Samples:
309
+ | sentence1 | sentence2 | label |
310
+ |:-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:------------------------------------------------------------------------------------------------------------------------------------------------|:---------------|
311
+ | <code>Type de project: Les projets éligibles doivent être déployés dans les résidences étudiantes à caractère social. Les projets doivent favoriser l’engagement bénévole des résidents et contribuer à l’animation au sein des résidences étudiantes. Ils doivent contribuer à améliorer les conditions de vie dans les résidences (favoriser la sociabilité, le vivre-ensemble, l’appropriation des bâtiments) et enrichir les compétences informelles des étudiants par la réalisation de projets. Le porteur de projet devra prévoir : Une animation collective,Une mise en œuvre du projet ancrée dans le territoire d'implantation de la résidence étudiante,un accompagnement des projets inités.</code> | <code>[projets éligibles] (projet)</code> | <code>1</code> |
312
+ | <code>Type de project: Les thématiques abordées, au titre du programme, comprennent la santé numérique et les risques de dépendance, la protection des données personnelles et la prévention des situations de harcèlement et de cyberharcèlement ; les interventions questionnent aussi les aspects numériques de la vie affective et sexuelle et son corollaire de risques tels que le "sexting", le "Revenge porn", le chantage sexuel et l'impact de la pornographie sur les jeunes.   A la demande des établissements, des focus thématiques peuvent être réalisés sur d'autres sujets comme la prévention des phénomènes de prostitution des mineurs, les problématiques liées aux jeux d'argent et de hasard en ligne ou encore la lutte contre la désinformation à travers une approche d'éducation aux médias et à l'information.   Les établissements bénéficiaires peuvent choisir jusqu'à deux thématiques qu'ils identifient comme prioritaires.</code> | <code>[petites entreprises innovantes franciliennes](bénéficiaire) --- INCLUT ---> [Professionnel - Cr��ateur d'entreprise](bénéficiaire)</code> | <code>0</code> |
313
+ | <code>Type de project: Actions de valorisation (expos physiques ou virtuelles, journées d’étude, site internet, publications, documentaires…),Outils de médiation (cartes et itinéraires papier ou numériques, livrets de visite, outils numériques, multimédia, parcours d’interprétation…),Dispositifs pédagogiques (mallettes pédagogiques, Moocs, supports de visite à destination des jeunes…),Événements rayonnant à l’échelle de l’Île-de-France. Une attention particulière sera portée à la qualité des contenus, à l’originalité et la pertinence des outils ou actions proposés, et à leur adéquation avec les publics ciblés.</code> | <code>[Événements rayonnant à l’échelle de l’Île-de-France](projet) --- ÉVALUÉ_PAR ---> [qualité des contenus](critère)</code> | <code>1</code> |
314
+ * Loss: [<code>ContrastiveLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#contrastiveloss) with these parameters:
315
+ ```json
316
+ {
317
+ "distance_metric": "SiameseDistanceMetric.COSINE_DISTANCE",
318
+ "margin": 0.5,
319
+ "size_average": true
320
+ }
321
+ ```
322
+
323
+ ### Training Hyperparameters
324
+ #### Non-Default Hyperparameters
325
+
326
+ - `eval_strategy`: steps
327
+ - `per_device_train_batch_size`: 4
328
+ - `per_device_eval_batch_size`: 4
329
+ - `gradient_accumulation_steps`: 8
330
+ - `num_train_epochs`: 10
331
+ - `warmup_steps`: 626
332
+
333
+ #### All Hyperparameters
334
+ <details><summary>Click to expand</summary>
335
+
336
+ - `overwrite_output_dir`: False
337
+ - `do_predict`: False
338
+ - `eval_strategy`: steps
339
+ - `prediction_loss_only`: True
340
+ - `per_device_train_batch_size`: 4
341
+ - `per_device_eval_batch_size`: 4
342
+ - `per_gpu_train_batch_size`: None
343
+ - `per_gpu_eval_batch_size`: None
344
+ - `gradient_accumulation_steps`: 8
345
+ - `eval_accumulation_steps`: None
346
+ - `torch_empty_cache_steps`: None
347
+ - `learning_rate`: 5e-05
348
+ - `weight_decay`: 0.0
349
+ - `adam_beta1`: 0.9
350
+ - `adam_beta2`: 0.999
351
+ - `adam_epsilon`: 1e-08
352
+ - `max_grad_norm`: 1.0
353
+ - `num_train_epochs`: 10
354
+ - `max_steps`: -1
355
+ - `lr_scheduler_type`: linear
356
+ - `lr_scheduler_kwargs`: {}
357
+ - `warmup_ratio`: 0.0
358
+ - `warmup_steps`: 626
359
+ - `log_level`: passive
360
+ - `log_level_replica`: warning
361
+ - `log_on_each_node`: True
362
+ - `logging_nan_inf_filter`: True
363
+ - `save_safetensors`: True
364
+ - `save_on_each_node`: False
365
+ - `save_only_model`: False
366
+ - `restore_callback_states_from_checkpoint`: False
367
+ - `no_cuda`: False
368
+ - `use_cpu`: False
369
+ - `use_mps_device`: False
370
+ - `seed`: 42
371
+ - `data_seed`: None
372
+ - `jit_mode_eval`: False
373
+ - `use_ipex`: False
374
+ - `bf16`: False
375
+ - `fp16`: False
376
+ - `fp16_opt_level`: O1
377
+ - `half_precision_backend`: auto
378
+ - `bf16_full_eval`: False
379
+ - `fp16_full_eval`: False
380
+ - `tf32`: None
381
+ - `local_rank`: 0
382
+ - `ddp_backend`: None
383
+ - `tpu_num_cores`: None
384
+ - `tpu_metrics_debug`: False
385
+ - `debug`: []
386
+ - `dataloader_drop_last`: False
387
+ - `dataloader_num_workers`: 0
388
+ - `dataloader_prefetch_factor`: None
389
+ - `past_index`: -1
390
+ - `disable_tqdm`: False
391
+ - `remove_unused_columns`: True
392
+ - `label_names`: None
393
+ - `load_best_model_at_end`: False
394
+ - `ignore_data_skip`: False
395
+ - `fsdp`: []
396
+ - `fsdp_min_num_params`: 0
397
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
398
+ - `fsdp_transformer_layer_cls_to_wrap`: None
399
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
400
+ - `deepspeed`: None
401
+ - `label_smoothing_factor`: 0.0
402
+ - `optim`: adamw_torch
403
+ - `optim_args`: None
404
+ - `adafactor`: False
405
+ - `group_by_length`: False
406
+ - `length_column_name`: length
407
+ - `ddp_find_unused_parameters`: None
408
+ - `ddp_bucket_cap_mb`: None
409
+ - `ddp_broadcast_buffers`: False
410
+ - `dataloader_pin_memory`: True
411
+ - `dataloader_persistent_workers`: False
412
+ - `skip_memory_metrics`: True
413
+ - `use_legacy_prediction_loop`: False
414
+ - `push_to_hub`: False
415
+ - `resume_from_checkpoint`: None
416
+ - `hub_model_id`: None
417
+ - `hub_strategy`: every_save
418
+ - `hub_private_repo`: False
419
+ - `hub_always_push`: False
420
+ - `gradient_checkpointing`: False
421
+ - `gradient_checkpointing_kwargs`: None
422
+ - `include_inputs_for_metrics`: False
423
+ - `eval_do_concat_batches`: True
424
+ - `fp16_backend`: auto
425
+ - `push_to_hub_model_id`: None
426
+ - `push_to_hub_organization`: None
427
+ - `mp_parameters`:
428
+ - `auto_find_batch_size`: False
429
+ - `full_determinism`: False
430
+ - `torchdynamo`: None
431
+ - `ray_scope`: last
432
+ - `ddp_timeout`: 1800
433
+ - `torch_compile`: False
434
+ - `torch_compile_backend`: None
435
+ - `torch_compile_mode`: None
436
+ - `dispatch_batches`: None
437
+ - `split_batches`: None
438
+ - `include_tokens_per_second`: False
439
+ - `include_num_input_tokens_seen`: False
440
+ - `neftune_noise_alpha`: None
441
+ - `optim_target_modules`: None
442
+ - `batch_eval_metrics`: False
443
+ - `eval_on_start`: False
444
+ - `use_liger_kernel`: False
445
+ - `eval_use_gather_object`: False
446
+ - `prompts`: None
447
+ - `batch_sampler`: batch_sampler
448
+ - `multi_dataset_batch_sampler`: proportional
449
+
450
+ </details>
451
+
452
+ ### Training Logs
453
+ | Epoch | Step | Training Loss | Validation Loss | EmbeddingSimEval_spearman_cosine | BinaryClassifEval_cosine_ap |
454
+ |:------:|:----:|:-------------:|:---------------:|:--------------------------------:|:---------------------------:|
455
+ | 7.9744 | 1560 | 0.0021 | 0.0219 | 0.3997 | 0.9399 |
456
+ | 9.9681 | 1950 | - | 0.0217 | 0.3817 | 0.9359 |
457
+
458
+
459
+ ### Framework Versions
460
+ - Python: 3.11.9
461
+ - Sentence Transformers: 3.3.1
462
+ - Transformers: 4.45.2
463
+ - PyTorch: 2.4.1+cu121
464
+ - Accelerate: 1.2.1
465
+ - Datasets: 3.2.0
466
+ - Tokenizers: 0.20.3
467
+
468
+ ## Citation
469
+
470
+ ### BibTeX
471
+
472
+ #### Sentence Transformers
473
+ ```bibtex
474
+ @inproceedings{reimers-2019-sentence-bert,
475
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
476
+ author = "Reimers, Nils and Gurevych, Iryna",
477
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
478
+ month = "11",
479
+ year = "2019",
480
+ publisher = "Association for Computational Linguistics",
481
+ url = "https://arxiv.org/abs/1908.10084",
482
+ }
483
+ ```
484
+
485
+ #### ContrastiveLoss
486
+ ```bibtex
487
+ @inproceedings{hadsell2006dimensionality,
488
+ author={Hadsell, R. and Chopra, S. and LeCun, Y.},
489
+ booktitle={2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06)},
490
+ title={Dimensionality Reduction by Learning an Invariant Mapping},
491
+ year={2006},
492
+ volume={2},
493
+ number={},
494
+ pages={1735-1742},
495
+ doi={10.1109/CVPR.2006.100}
496
+ }
497
+ ```
498
+
499
+ <!--
500
+ ## Glossary
501
+
502
+ *Clearly define terms in order to be accessible across audiences.*
503
+ -->
504
+
505
+ <!--
506
+ ## Model Card Authors
507
+
508
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
509
+ -->
510
+
511
+ <!--
512
+ ## Model Card Contact
513
+
514
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
515
+ -->
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "models/go_contrastive_new",
3
+ "architectures": [
4
+ "XLMRobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 514,
17
+ "model_type": "xlm-roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "output_past": true,
21
+ "pad_token_id": 1,
22
+ "position_embedding_type": "absolute",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.45.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 250002
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.3.1",
4
+ "transformers": "4.45.2",
5
+ "pytorch": "2.4.1+cu121"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": "cosine"
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:0ebe7227d6919ae9d0e3e2c6a6f4e9fa1819e4f057c0f53616ed4e3c6d72184f
3
+ size 1112197096
modules.json ADDED
@@ -0,0 +1,20 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ },
14
+ {
15
+ "idx": 2,
16
+ "name": "2",
17
+ "path": "2_Normalize",
18
+ "type": "sentence_transformers.models.Normalize"
19
+ }
20
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 512,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": true,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:883b037111086fd4dfebbbc9b7cee11e1517b5e0c0514879478661440f137085
3
+ size 17082987
tokenizer_config.json ADDED
@@ -0,0 +1,61 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "250001": {
36
+ "content": "<mask>",
37
+ "lstrip": true,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "max_length": 512,
50
+ "model_max_length": 512,
51
+ "pad_to_multiple_of": null,
52
+ "pad_token": "<pad>",
53
+ "pad_token_type_id": 0,
54
+ "padding_side": "right",
55
+ "sep_token": "</s>",
56
+ "stride": 0,
57
+ "tokenizer_class": "XLMRobertaTokenizer",
58
+ "truncation_side": "right",
59
+ "truncation_strategy": "longest_first",
60
+ "unk_token": "<unk>"
61
+ }