Update README.md
Browse files
README.md
CHANGED
@@ -9,6 +9,13 @@ inference: false
|
|
9 |
---
|
10 |
|
11 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12 |
[youri-7b-instruction](https://huggingface.co/rinna/youri-7b-instruction) を元に SFT で Q&A + コンテキスト形式を学習し、AutoGTPQで量子化したモデルです。詳しくは以下を参照ください。
|
13 |
|
14 |
- [Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する](https://secon.dev/entry/2023/12/15/080000-qa-rag-llm-sft/)
|
|
|
9 |
---
|
10 |
|
11 |
|
12 |
+
# お知らせ
|
13 |
+
|
14 |
+
より回答が適切になるように学習させたモデル、https://huggingface.co/hotchpotch/youri-7b-stf-qa-context-jaqket-jsquad-gptq もあります。
|
15 |
+
|
16 |
+
---
|
17 |
+
|
18 |
+
|
19 |
[youri-7b-instruction](https://huggingface.co/rinna/youri-7b-instruction) を元に SFT で Q&A + コンテキスト形式を学習し、AutoGTPQで量子化したモデルです。詳しくは以下を参照ください。
|
20 |
|
21 |
- [Q&A + RAG に特化したLLMをSFTで学習させ4bit量子化モデルを作り、GPT3.5以上の性能を7Bモデルで達成する](https://secon.dev/entry/2023/12/15/080000-qa-rag-llm-sft/)
|