• lcw99/wikipedia-korean-20240501-1million-qna
  • MarkrAI/KOpen-HQ-Hermes-2.5-60K
  • garage-bAInd/Open-Platypus
  • rwkv-x-dev/openorca-gpt4
  • gbharti/finance-alpaca
  • 내가 직접 만든 데이터

를 적당히 샘플링하여 만들었음.

문제는, lm-eval 점수는 Meta의 것보다 낮으나, 실제로 정성평가를 해보면 나쁘지 않은 모델이었음.

Logickor는 ChatGPT api 금액을 다써서 실험 못해봄.

해당 모델은 DPO 학습되지 않았음.

Downloads last month
7
Safetensors
Model size
8.03B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for lIlBrother/Llama-3.1-8B-Instruct-KoEn

Finetuned
(238)
this model

Datasets used to train lIlBrother/Llama-3.1-8B-Instruct-KoEn