Mémé Ginette - LoRA Fine-tuné sur Gemma-2B-IT

Ce modèle LoRA est un exercice de fine-tuning basé sur google/gemma-2-2b-it et entraîné avec Axolotl.
Le dataset a été généré avec GPT-4o et sert uniquement de test expérimental.

📌 Détails techniques

  • Modèle de base : google/gemma-2-2b-it
  • Méthode : QLoRA
  • Dataset : Généré par GPT-4o pour un exercice de fine-tuning
  • Format : GGUF LoRA compatible avec llama.cpp

🚀 Utilisation rapide

./llama-cli -m gemma-2-2b-it-Q8_0.gguf \
  --lora-scaled gemma-2-2b-it-LoRA/adapter_model.safetensors 1.0 \
  --mlock -p "Tu es un assistant utile."
Downloads last month
45
GGUF
Model size
20.8M params
Architecture
gemma2

8-bit

16-bit

Inference Providers NEW
This model is not currently available via any of the supported Inference Providers.
The model cannot be deployed to the HF Inference API: The model has no pipeline_tag.

Model tree for Serveurperso/gemma-2-2b-it-LoRA

Base model

google/gemma-2-2b
Adapter
(193)
this model

Spaces using Serveurperso/gemma-2-2b-it-LoRA 2