- lcw99/wikipedia-korean-20240501-1million-qna
- MarkrAI/KOpen-HQ-Hermes-2.5-60K
- garage-bAInd/Open-Platypus
- rwkv-x-dev/openorca-gpt4
- gbharti/finance-alpaca
- 내가 직접 만든 데이터
를 적당히 샘플링하여 만들었음.
문제는, lm-eval 점수는 Meta의 것보다 낮으나, 실제로 정성평가를 해보면 나쁘지 않은 모델이었음.
Logickor는 ChatGPT api 금액을 다써서 실험 못해봄.
해당 모델은 DPO 학습되지 않았음.
- Downloads last month
- 7
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for lIlBrother/Llama-3.1-8B-Instruct-KoEn
Base model
unsloth/Meta-Llama-3.1-8B