QuantFactory/eagle-3b-preview-GGUF
This is quantized version of etri-lirs/eagle-3b-preview created using llama.cpp
Original Model Card
EAGLE: ETRI's Advanced-lightweight Generative Language Engine
(๊ณผ๊ฑฐ์ eGPT๋ก ๋ถ๋ ธ์ผ๋ฉฐ, 2024.11.14 ์ ์ด๋ฆ์ ๋ณ๊ฒฝํ์์ต๋๋ค. ์ถํ ๋ฆด๋ฆฌ์ฆ๋๋ ๋ชจ๋ธ์ prefix๋ egpt- ๋์ eagle-๋ก ๋ณ๊ฒฝ๋ฉ๋๋ค)
๋ณธ ๋ชจ๋ธ์ ์ฌ์ ํ์ต๋ง ์ํ๋ ๋ชจ๋ธ์ด๋ฉฐ, ๋ณ๋์ Instruction Tuning ๋ฑ์ด ์ ์ฉ๋์ง ์์ ๊ธฐ์ด ๋ชจ๋ธ์ ๋๋ค. ์ฑ๋ด ์คํ์ผ์ ์ ์ถ๋ ฅ์ด ํ์ํ ๊ฒฝ์ฐ, ๋ณ๋์ ๋ฏธ์ธ์กฐ์ ์ ๋ฐ๋์ ์ํํด์ผ ํฉ๋๋ค.
๋ชจ๋ธ ์ ๋ณด
3.1B Decoder-only, Causal ์ธ์ด๋ชจ๋ธ. ์ํ, ์ ๋ ์ถ๋ก ์ ๋น๋กฏํ STEM ๋ถ์ผ์ ํนํ๋ ์๊ท๋ชจ ์ธ์ด๋ชจ๋ธ์ ์งํฅํฉ๋๋ค. ๋ฒ์ฉ ์ธ์ด๋ชจ๋ธ์ ์ญํ ์ ๋ชฉํ๋กํ์ง๋ ์๊ธฐ์, ํต์์ ์ดํด ๊ด๋ จ ๋ฒ์ฉ ํ์คํฌ ํ๊ฐ(e.g. hellaswag, sentineg ๋ฑ)์๋ ๋ฎ์ ์ฑ๋ฅ์ด ๋ํ๋ ์ ์์ต๋๋ค. ํ์ต ๋ฐ์ดํฐ ๋ณ๊ฒฝ ๋ฐ ํ์ต ๋ฐฉ๋ฒ ์์ , ๊ฐ์ ์ผ๋ก ์ธํด ๋ณธ ๋ชจ๋ธ์ ๋น์ ๊ธฐ์ ์ผ๋ก ์ ๋ฐ์ดํธ ๋ ์ ์์์ ๋ฏธ๋ฆฌ ์๋ ค๋๋ฆฝ๋๋ค.
Tokenizer๋ LLaMa์ ๊ตฌ์ฑ๊ณผ ์ ์ฌํ๊ฒ byte-fallbacked BPE + digit ๋ถ๋ฆฌ ๊ตฌ์ฑ์ ๊ฐ์ง๋, BOS/EOS(e.g. <s>,</s>
) ํ ํฐ์ด ๋ชจ๋ EOS(</s>
)๋ก ํต์ผ๋์ด ์์ต๋๋ค. ํ ํฌ๋์ด์ ์ค์ ์์ PAD ํ ํฐ์ ๋ณ๋๋ก ์ง์ ๋์ด ์์ง ์์ผ๋, Byte-level BPE์ ํน์ฑ์ <unk>
์ฌ๋ณผ์ด ์ฌ์ฉ๋์ง ์์ผ๋ฏ๋ก, ๋ฏธ์ธ์กฐ์ ๋จ๊ณ์์๋ <unk>
ํ ํฐ์ PAD ํ ํฐ์ผ๋ก ์ง์ ํ์ฌ ํ์ฉํ ๊ฒ์ ๊ถ์ฅํฉ๋๋ค.
LLaMA ํธํ ์ํคํ
์ณ๋ก ๊ตฌ์ฑ๋์ด ์์ผ๋ฉฐ, A100 80GB PCIE * 8์ฅ์์ ์ฝ 720B tokens๋ฅผ from-scratch๋ก ์ฌ์ ํ์ตํ์ฌ ํ๋๋ ๋ชจ๋ธ์
๋๋ค.
์ ๋ฐ์ดํธ ๊ธฐ๋ก/Update log
๋ ์ง | ๋ฒ์ (git tags, revision ID) | ์ธ๋ถ ์ฌํญ |
---|---|---|
2024.10.28 | v24.10 | (ํ์ฌ๋ฒ์ ) ์ฒซ๋ฒ์งธ ํผ๋ธ๋ฆญ ๋ฆด๋ฆฌ์ฆ ํ๋ณด. ์ฝ 720B tokens ํ์ต |
ํต์ง์ฌํญ/Acknowledgement
- ์ด ๋ชจ๋ธ์ 2024๋ ๋ ์ ๋ถ(๊ณผํ๊ธฐ์ ์ ๋ณดํต์ ๋ถ)์ ์ฌ์์ผ๋ก ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์์ ์ง์์ ๋ฐ์ ์ํ๋ ์ฐ๊ตฌ์ (RS-2023-00216011, ์ฌ๋์ฒ๋ผ ๊ฐ๋ ์ ์ผ๋ก ์ดํด/์ถ๋ก ์ด ๊ฐ๋ฅํ ๋ณตํฉ์ธ๊ณต์ง๋ฅ ์์ฒ๊ธฐ์ ์ฐ๊ตฌ)
- This work was supported by Institute of Information & Communications Technology Planning & Evaluation(IITP) grant funded by the Korea government(MSIT) (RS-2023-00216011, Development of artificial complex intelligence for conceptually understanding and inferring like human)
์ ํ์ ๋ชจ๋ธ ์ ๊ทผ ๋ฐ, ๋ชจ๋ธ ์ ๊ทผ ํ๊ฐ์ ๊ด๋ จํ ๊ฐ์ธ์ ๋ณด ์์ง ๋ฐ ์ฌ์ฉ ์๋ด/Information on Collection and Use of Personal Information for Gated Model Access
๋ณธ ๋ชจ๋ธ์ ์ฐ๊ตฌ์ ๊ต์ก ๋ชฉ์ ์ผ๋ก๋ง ์ฌ์ฉ ๋ ์ ์์ผ๋ฉฐ, ํ์ฌ ๋ณ๋์ ์น์ธ ์์ด, Huggingface ๊ณ์ ์ผ๋ก ๋ก๊ทธ์ธ ํ ์น์ธ ์์ฒญ์ ์ํํ์๋ฉด ์๋์ผ๋ก ๋ชจ๋ธ์ ๋ฐ์ผ์ค ์ ์๊ฒ ๋ฉ๋๋ค. ๋ชจ๋ธ ์ต์ธ์ค์ ๊ด๋ จํด์ ๋ฌธ์ ์ฌํญ์ด ์์ผ์๋ฉด jhshin82 at etri.re.kr (__at__์ @์ผ๋ก ์นํ)๋ก ๋ฌธ์ํ์๋ฉด ๋ฉ๋๋ค.
๋ณธ ๋ชจ๋ธ๊ณผ ๊ด๋ จํด ์ฌํ์ , ๋ฒ์ ๋ฌธ์ ๊ฐ ๋ฐ์ํ ๊ฒฝ์ฐ ๋ชจ๋ธ์ ์ฌ์ฉ์ ์ ํํ๊ณ , ๋ฐฐํฌ๋ฅผ ์ฒ ํํ ์ ์์ต๋๋ค. ์ด๋ฅผ ์ํด ๋ชจ๋ธ ์ ๊ทผ ํ๊ฐ์ ์ฌ์ฉ๋ ์ด๋ฉ์ผ ์ฃผ์๋ฅผ ๋ค์๊ณผ ๊ฐ์ด ์์ง, ๋ณด์ , ์ด์ฉํ ์ ์์ต๋๋ค.
๊ฐ์ธ์ ๋ณด ์์ง๋์/Concent to collection of Personal Information
๋ณธ ๋ชจ๋ธ์ ์ฌ์ฉ๊ณผ ๊ด๋ จ, ๋ฐฐํฌ/์ฌ์ฉ ์ ํ/์ฒ ํ, ๊ทธ ์ธ ์ฌ์ฉ์์ ์ด์ต์ ๊ด๊ณ๋ ๋ผ์ด์ ์ค ๋ณ๊ฒฝ ์ ์ด๋ฅผ ํต์งํ๊ธฐ ์ํด, ์๋์ ๊ฐ์ด ๊ฐ์ธ์ ๋ณด๋ฅผ ์์ง, ์ด์ฉํฉ๋๋ค.
์์ง ๋ชฉ์ | ์์ง ํญ๋ชฉ | ๋ณด์ , ์ด์ฉ๊ธฐ๊ฐ |
---|---|---|
๋ชจ๋ธ์ ์ฌ์ฉ์ ํ/์ฒ ํ ์์ฒญ ๋ชฉ์ | ์ด๋ฉ์ผ ์ฃผ์, huggingface hub ID | ๋ณธ ๋ชจ๋ธ์ ๊ณต๊ฐ ๊ธฐ๊ฐ ๋ฐ ์ด์ฉ ๋ชฉ์ ๋ฌ์ฑ ์ |
๋ชจ๋ธ์ ์ฌ์ฉ ๋ผ์ด์ ์ค ๋ฑ ๋ณ๊ฒฝ ์๋ด | ์ด๋ฉ์ผ ์ฃผ์, huggingface hub ID | ๋ณธ ๋ชจ๋ธ์ ๊ณต๊ฐ ๊ธฐ๊ฐ ๋ฐ ์ด์ฉ ๋ชฉ์ ๋ฌ์ฑ ์ |
๋ณธ ๋ชจ๋ธ์ ๋ํ ์ ๊ทผ ์์ฒญ์ ์ํํ๊ณ , ๋ชจ๋ธ์ ์ ๊ทผํ์๋ ํ์๋ ์๋์ ์๋ด๋ ์๋ด์ฌํญ, ๋ณธ ๋ชจ๋ธ์ ํ๊ณ, ์ฑ ์์๋ AI ์ฐ๊ตฌ์ ๋ํ ์ ๋ณด, ๊ฐ์ธ์ ๋ณด ์์ง/์ด์ฉ์ ๋์ํ์ ๊ฒ์ผ๋ก ๊ฐ์ฃผํฉ๋๋ค. ์ฌ์ฉ์๋ ๋์๋ฅผ ๊ฑฐ๋ถํ์ค ๊ถ๋ฆฌ๊ฐ ์์ผ๋ฉฐ, ๋์๋ฅผ ๊ฑฐ๋ถํ์ค ๊ฒฝ์ฐ ๋ชจ๋ธ ์ฌ์ฉ์ด ์ ํ๋๋ฉฐ, ์ด์ ๊ด๋ จํ ์ฌ์ฉ, ๊ฒฐ๊ณผ์ ๋ํ ์ฑ ์์ ์ฌ์ฉ์์๊ฒ ์์์ ์๋ ค๋๋ฆฝ๋๋ค. ์ฌ์ฉ ํ ๋์ ์ฒ ํ, ๊ฐ์ธ์ ๋ณด ํ๊ธฐ์ ๋ํ ์ฌํญ์ ์๊ธฐ ์๋ด๋ ๋ฉ์ผ ์ฃผ์ ๋๋ Community tab์ ํตํด์ ์์ฒญํ์ค ์ ์์ต๋๋ค.
๋ชจ๋ธ์ ํ๊ณ, ์ฑ ์์๋ AI ์ฐ๊ตฌ๋ฅผ ์ํ ๊ด๋ จ ์ ๋ณด ์๋ด
๋ณธ ๋ชจ๋ธ์ ๊ฐ๋ฐ๊ณผ ๊ด๋ จํ ๊ฐ๋ฐ์ ๋ฐ ์กฐ์ง์ ์ฑ ์์๋ AI ์ฐ๊ตฌ๋ฅผ ์ค์ํ๊ณ ์ ๋ ธ๋ ฅํ๊ณ ์์ผ๋ฉฐ, ์ด์ ๊ด๋ จํด AI ์ฐ๊ตฌ์ ์ฌ์ฉ๋๋ ์ ์ถ๋ ฅ ๋ฐ์ดํฐ ๋ด ํฌํจ๋ ์์ค, ์๋, ์ ์น์ ๋ด์ฉ ๋ฐ ๊ธฐํ ๊ฑฐ์น ์ธ์ด์ ๋ํ ์ฒ๋ฆฌ๋ฅผ ์ํํ๊ณ ์ ๋ ธ๋ ฅํ๊ณ ์์ต๋๋ค. ๊ทธ๋ผ์๋ ๋ถ๊ตฌํ๊ณ , ์์ ์น ํ ์คํธ ๋ฐ์ดํฐ์ ํน์ฑ ์ ์ด๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํด ํ์ต๋ ๋ณธ ์์ฑ ์ธ์ด ๋ชจ๋ธ์ ๊ฒฝ๋๋ ์ฌ์์ ํฌํจํ๊ฑฐ๋, ์ฌํ์ ์ผ๋ก ์ฉ์ธ๋ ์ ์๋ ํ ์คํธ๋ฅผ ์์ฑํ ์ ์์ผ๋ฉฐ, ๋ค๋ฅธ ์ธ์ด ๋ชจ๋ธ๊ณผ ๋ง์ฐฌ๊ฐ์ง๋ก ํน์ ํ๋กฌํํธ์ ๊ณต๊ฒฉ์ ์ธ ์ฝํ ์ธ ๊ฐ ๋ฐํ๋ ์ ์์ต๋๋ค. ์ด๋ฅผ ํฌํจ, ๋ณธ ๋ชจ๋ธ์ ์ถ๋ ฅ/์์ฑ ๊ฒฐ๊ณผ์ ๊ด๋ จํ ๋ด์ฉ์ ๊ฐ๋ฐ์ ๋ฐ ๊ฐ๋ฐ์๊ฐ ์ํ ์กฐ์ง์ ์ฌ์, ์๋์ ์ ํ ๊ด๋ จ์ด ์์์ ์๋ ค๋๋ฆฝ๋๋ค.
ํ ์คํธ์ค์ ๋ฐ์ํ ๋น์ ์์ ์ธ ํน์ ์ฌํ์ ์ผ๋ก ์ฉ์ธ๋์ง ์๋ ํ ์คํธ๊ฐ ์์ฑ๋ ๊ฒฝ์ฐ jhshin82 at etri.re.kr๋ก (__at__์ @๋ก ์นํ) ์ถ๋ ฅ ์ ๋์ ์ฌ์ฉ๋ ์ ๋ ฅ๋ฌธ(ํ๋กฌํํธ), ์ฌ์ฉ๋ ์ํ๋ง ๊ธฐ๋ฒ ๋ฐ ํ์ดํผํ๋ผ๋ฏธํฐ(์: top-p=0.8, temperature, repetition-penalty ๋ฑ), ์ด๋ฅผ ํตํด ์์ฑ๋ ์ถ๋ ฅ ๊ฒฐ๊ณผ๋ฅผ ํจ๊ป ๋ณด๋ด์ฃผ์๋ฉด, ์ด๋ฅผ ์ต์ ํ๊ธฐ ์ํ ๋ ธ๋ ฅ์ ๊ธฐ์ธ์ด๋๋ก ํ๊ฒ ์ต๋๋ค.
ํ๊ฐ/Evaluations
์ฌ์ ํ์ต ๋ชจ๋ธ์ KOBEST ํ๊ฐ
ํ๊ฐ๋ EleutherAI/lm-evaluation-harness, v0.4.2๋ฅผ ์ฌ์ฉํ์ฌ, KoBEST(Kim et al., 2022) ํ๊ฐ์ ์ผ๋ก fine-tuning ์์ด zero-shot, 5-shot ํ ์คํธ๋ฅผ ์ํํ์ต๋๋ค. (lm-evaluation-harness์ KOBEST ํ๊ฐ๋ ๋ฒ์ ์ ๋ฐ๋ผ ๋ค๋ฅด๊ฒ ๋ํ๋ ๋ฌธ์ ๊ฐ ์์ด, ์ต์ lm-evaluation-harness(๋ฒ์ 0.4.2 ์ดํ)๋ฅผ ํตํ ํ๊ฐ๋ฅผ ์๋ ๋ณ๋๋ก ์ ์ํ์์ต๋๋ค.)
Zero-shot ์ฑ๋ฅ | KB-BOOLQ (F1) | KB-COPA (F1) | KB-HELLASWAG (F1) | KB-SENTINEG (F1) | KB-WIC (F1) | Average (F1) |
---|---|---|---|---|---|---|
eagle-3b-preview (v24.08) | 0.3393 | 0.5353 | 0.3446 | 0.5653 | 0.3280 | 0.3994 |
eagle-3b-preview (v24.09) | 0.3343 | 0.5367 | 0.3383 | 0.4991 | 0.3280 | 0.3917 |
eagle-3b-preview (v24.10) | 0.3778 | 0.5648 | 0.3369 | 0.4763 | 0.3280 | 0.4092 |
eagle-3b-preview (v24.11) | 0.3651 | 0.5893 | 0.3551 | 0.4473 | 0.3280 | 0.4101 |
5-shots ์ฑ๋ฅ | KB-BOOLQ (F1) | KB-COPA (F1) | KB-HELLASWAG (F1) | KB-SENTINEG (F1) | KB-WIC (F1) | Average (F1) |
---|---|---|---|---|---|---|
eagle-3b-preview (v24.08) | 0.4680 | 0.5580 | 0.3332 | 0.4950 | 0.4830 | 0.4795 |
eagle-3b-preview (v24.09) | 0.5087 | 0.5599 | 0.3257 | 0.4207 | 0.4212 | 0.4681 |
eagle-3b-preview (v24.10) | 0.5207 | 0.5791 | 0.3511 | 0.5959 | 0.4712 | 0.5078 |
eagle-3b-preview (v24.11) | 0.4753 | 0.5924 | 0.3592 | 0.5810 | 0.4930 | 0.5024 |
10-shots ์ฑ๋ฅ | KB-BOOLQ (F1) | KB-COPA (F1) | KB-HELLASWAG (F1) | KB-SENTINEG (F1) | KB-WIC (F1) | Average (F1) |
---|---|---|---|---|---|---|
eagle-3b-preview (v24.08) | 0.4243 | 0.5673 | 0.3364 | 0.4232 | 0.4265 | 0.4465 |
eagle-3b-preview (v24.09) | 0.5001 | 0.5597 | 0.3377 | 0.3498 | 0.3578 | 0.4432 |
eagle-3b-preview (v24.10) | 0.5101 | 0.5894 | 0.3675 | 0.5101 | 0.4650 | 0.4994 |
eagle-3b-preview (v24.11) | 0.4151 | 0.6143 | 0.3718 | 0.5883 | 0.5134 | 0.4963 |
์ ์ดํ์ต ๋ฅ๋ ฅ ํ๊ฐ
์ค๋น์ค์ ๋๋ค.
๋ชจ๋ธ | GSM8k test | ๋น๊ณ |
---|---|---|
- | - | - |
์ฌ์ ํ์ต์ ์ฐธ์ฌํ ๋ฐ์ดํฐ์ ์ ๋ณด/Datasets
- FIXME: ํ์ต๋ฐ์ดํฐ ๋ชฉ๋ก ์์ , ์ ๋ฐ์ดํธ ํ์
์๋์ ํ์ต ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ์ฌ ํ์ตํ์์ต๋๋ค:
- AIHub ๋ฐ์ดํฐ์ , MRC, RAW, ๋ํ, ๋ฒ์ญ, ์์ฝ
- KISTI ๊ตญ๋ด๋ ผ๋ฌธ EN, KR ๋ฐ์ดํฐ์
- KcBERT v2022.3q ๋ค์ด๋ฒ ๋ด์ค ๋๊ธ ๋ฐ์ดํฐ์
- ๊ตญ๋ฆฝ๊ตญ์ด์ ๋ชจ๋์ ๋ง๋ญ์น(๋ฌธ์ด, ๊ตฌ์ด, ์ ๋ฌธ, ๋น์ถํ๋ฌผ, ๊ตญํํ์๋ก, ์ผ์๋ํ, ์จ๋ผ์ธ๋ํ, ๋ฉ์ ์ ๋ง๋ญ์น)
- ํ๊ตญ์ด ์ํคํผ๋์ด ๋คํ, lovit/ko-wikitext ๋ฐ์ดํฐ์ . 20200920.v3 ๋ฑ korpora ๋ฐ์ดํฐ์ ์ ์ฌ์ ํ์ต์ฉ ๋ง๋ญ์น ์ผ๋ถ
- (์) SlimPajama-627B (https://huggingface.co/cerebras/SlimPajama-627B)
- (์) stack exchange ๋ฐ์ดํฐ์
- (์) OpenWebText2
- (์) 2020-09-08-arXiv-extracts
- (์) PUBMED title abstracts 2019
- THUDM/MathGLM Arithmetic Text Corpus (applied from 23/11/22, https://github.com/THUDM/MathGLM) ๋ฑ
์ฌ์ฉ ์๋ น/How to use
์๋ ์ฝ๋๋ฅผ ํตํด, transformers>=4.28 ๋ฒ์ ์์ ์ถ๋ก ๊ฐ๋ฅํฉ๋๋ค.
import sys
from transformers import (
AutoTokenizer, AutoModelForCausalLM, GenerationConfig
)
def load_model(mdl_path):
tokenizer = AutoTokenizer.from_pretrained(mdl_path,)
# device_map ์ธ์๋ฅผ ์ฌ์ฉํ๊ธฐ ์ํด์๋ accelerator ๋ชจ๋ ์ค์น ํ์.
model = AutoModelForCausalLM.from_pretrained(mdl_path, device_map="auto",
torch_dtype="auto")
return tokenizer, model
if __name__ == '__main__':
# FIXME: ๋ชจ๋ธ ๊ฒฝ๋ก ์์ !
tokenizer, model = load_model("etri-lirs/egpt-3b-preview")
# print(model.hf_device_map)
# ํ์์ ๋ฐ๋ผ ์๋ ์์ฑ ์ต์
์ ์ ์ด
gen_cfg = GenerationConfig(max_new_tokens=256, min_length=0,
max_time=10.0, do_sample=True,
top_p=0.9, epsilon_cutoff=3e-4,)
print("** Now Ready to input from stdin.")
for aline in sys.stdin:
aline = aline.rstrip("\n\r\t")
input_cond = tokenizer(aline, add_special_tokens=False, return_tensors="pt").to("cuda")
outs = model.generate(**input_cond, generation_config=gen_cfg)
out_str = tokenizer.batch_decode(outs, skip_special_tokens=True,
clean_up_tokenization_spaces=True)
print(">> " + ' '.join(out_str))
- Downloads last month
- 9