library_name: transformers license: apache-2.0
llm-jp-3-13b-ft_v4
概要
本モデルは、llm-jp/llm-jp-3-13bをベースモデルとして日本語インストラクションフォロー特性を強化すべく事後学習(SFT)を施したモデルです。 ELYZA-tasks-100等の複雑な指示・タスクのベンチマークで性能が向上するように調整を行いました。
モデルの詳細
モデル概要
本モデルは、🤗 Transformersフレームワーク上で、llm-jp-3-13bモデルにLoRAによる軽量なファインチューニング(SFT)を行ったものです。
元モデルは約130億パラメータを持ち、日本語を含む多言語データで事前学習されています。本モデルでは日本語のインストラクションタスクに特化するためのSFTを行い、指示追従性能を改善しています。
- 開発元: 新谷正嶺
- ベースモデル: llm-jp/llm-jp-3-13b
- 使用言語: 日本語
- ライセンス: Apache-2.0 (ベースモデルに準拠)
- 微調整手法: LoRAを用いた軽量SFT
モデルソース
- リポジトリ(当モデル): SAS3/llm-jp-3-13b-ft_v4
- ベースモデル: llm-jp/llm-jp-3-13b
利用用途
直接利用
本モデルを直接利用する場合、様々なタスクにおける自然言語指示に応答できます。
例: 質問応答、文章要約、簡易推論、クリエイティブライティングなど。
下流タスクへの利用
さらに追加のSFTやRLHFなどの事後学習を施すことで、特定のドメインタスクやスタイルにより特化させることも可能です。
範囲外の利用
極端な長文生成や専門領域での正確性要求が高いタスクなど、本モデルが十分対応しきれない領域が存在します。誤情報や不適切な出力の可能性があるため、ユーザーによる検証が必要です。
偏り・リスク・制約
本モデルは学習データ中の潜在的バイアス、事実性欠如、ステレオタイプの反映などのリスクを内包する可能性があります。
出力は常にユーザーが検証し、適宜修正することをお勧めします。
導入方法
import torch
from transformers import AutoTokenizer, AutoModelForCausalLM
HF_TOKEN = "YOUR_HF_TOKEN"
model_id = "SAS3/llm-jp-3-13b-ft_v4"
tokenizer = AutoTokenizer.from_pretrained(model_id, trust_remote_code=True, use_auth_token=HF_TOKEN)
model = AutoModelForCausalLM.from_pretrained(
model_id,
device_map="auto",
torch_dtype=torch.bfloat16,
use_auth_token=HF_TOKEN
)
input_text = "新しい料理レシピを5つ提案してください"
prompt = f"""### 指示
{input_text}
### 回答
"""
input_ids = tokenizer.encode(prompt, return_tensors="pt").to(model.device)
with torch.no_grad():
output_ids = model.generate(
input_ids,
max_new_tokens=200,
do_sample=False,
repetition_penalty=1.2,
pad_token_id=tokenizer.eos_token_id
)[0]
output = tokenizer.decode(output_ids[input_ids.size(1):], skip_special_tokens=True)
print(output)
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support
Model tree for SAS3/llm-jp-3-13b-ft_v4
Base model
llm-jp/llm-jp-3-13b