- 2026年2月20日、Hugging FaceとUnslothが正式連携を発表。Hugging Face Jobs上の無料GPU枠でLLMのファインチューニングが利用可能になり、GPUコストという参入障壁が解消された
- UnslothはHugging Face TRLのSFTTrainerと比較して学習速度約2倍・VRAM使用量約60%削減を実現。12億パラメータクラスのモデル学習がわずか数ドルで完了できる
- Hugging Face Hubの「Unsloth Jobs Explorers」組織への参加で無料クレジットと1ヶ月のPro購読を取得でき、初期費用ゼロから試験的な学習を開始できる
発表の背景:GPUコストという参入障壁
2026年2月20日、Hugging FaceとUnslothは両プラットフォームの正式連携を発表した。Hugging Face Jobsが提供するクラウドGPU実行環境で、UnslothのLLMファインチューニングパイプラインが利用可能になり、GPUを所有していない個人開発者・研究者でも大規模言語モデルの追加学習を手軽に実施できる環境が整った。
これまでLLMのファインチューニングには高価なGPUの購入またはクラウドの時間課金が必要で、コストが事実上の参入障壁となっていた。Hugging Face Jobsは以前からクラウドGPUをAPI経由で利用できる仕組みを提供してきたが、今回のUnslothとの統合によって、無料クレジットを活用した実質ゼロ円からのモデル訓練が現実のものとなった。
Unslothの効率化:標準比2倍速・VRAM60%削減
Unslothは、Hugging Face TRLのSFTTrainer(標準のファインチューニングライブラリ)と比較して学習速度を約2倍に高速化し、VRAMの使用量を約60%削減できる。この効率化の核心はカーネルレベルの最適化とLoRA(Low-Rank Adaptation)の軽量アダプタ方式にある。
特に4bit量子化(QLoRA)との組み合わせが効果的で、パラメータ数10億以上のモデルでも民生向けGPUで動かすことが可能になる。LLMの量子化手法(GPTQ・AWQ・GGUF)の仕組みと選び方を押さえておくと、モデルのスリム化と学習効率向上の関係がより深く理解できるだろう。Unslothはこれらの量子化形式にも対応しており、効率化を多層的に実現している。
今回の発表でフォーカスされているベースモデルはLiquidAI/LFM2.5-1.2B-Instructだ。12億パラメータながらメモリ使用量が1GB未満に抑えられており、ファインチューニング後のモデルをCPU・スマートフォン・ラップトップで推論することも視野に入る。

CLIコマンド一行でトレーニングを開始する
Hugging Face CLIをインストールし、以下のコマンドを実行するだけでクラウドGPU上でのファインチューニングが始まる。事前にHugging Faceアカウントの課金設定と書き込み権限付きのHF Tokenを準備しておく必要がある。
まずCLIをインストールする。
curl -LsSf https://hf.co/cli/install.sh | bash
次にジョブを投入する。
hf jobs uv run https://huggingface.co/datasets/unsloth/jobs/resolve/main/sft-lfm2.5.py --flavor a10g-small --secrets HF_TOKEN --timeout 4h --dataset mlabonne/FineTome-100k --num-epochs 1 --output-repo your-username/lfm-finetuned
GPUフレーバーはモデルのサイズに合わせて選択する。以下は2026年2月時点の参考料金であり、時期や為替により変動する場合がある。
- 10億パラメータ未満:t4-small(約$0.40/時)
- 1〜3Bパラメータ:t4-medium(約$0.60/時)
- 3〜7Bパラメータ:a10g-small(約$1.00/時)
- 7〜13Bパラメータ:a10g-large(約$3.00/時)
完了したモデルは--output-repoで指定したHugging Face Hubのリポジトリに自動でアップロードされる。ローカル環境のセットアップは一切不要で、ブラウザとHugging Faceアカウントさえあれば全工程が完結する。

無料クレジットの取得方法
Hugging Face Hub上のUnsloth Jobs Explorers組織(huggingface.co/unsloth-jobs)に参加することで、Hugging Face Jobsの無料クレジットと1ヶ月のPro購読が付与される。組織ページから「Request to join」ボタンで参加申請できる。
無料クレジットの範囲内では実質コストゼロでファインチューニングを試すことができる。まず小規模なデータセットと軽量モデルで動作を確認し、成果が出てから有料枠へ移行するという段階的な利用が推奨されている。
コーディングエージェントからも利用可能
今回の連携はCLI操作だけでなく、コーディングエージェントからの利用にも対応している。Claude Codeを使う場合は/plugin marketplace add huggingface/skillsを実行した後、/plugin install hugging-face-model-trainer@huggingface-skillsでスキルをインストールする。OpenAI Codexでも同様のスキルが利用可能だ。
インストール後は「LiquidAI/LFM2.5-1.2B-InstructをmlabonneのFineTome-100kでUnslothを使ってHF Jobsで学習させて」と自然言語で指示するだけで、コマンド生成からジョブ投入まで自動で処理される。複雑なオプション設定を記憶しなくてよく、プロンプトで意図を伝えるだけで動作するため、コマンド操作に慣れていない研究者にとっても入り口が低い。
個人開発者・研究者への影響
GPUを持たない個人がLLMのファインチューニングを試みようとすると、これまでGoogle ColabのT4インスタンスの無料枠(12GB VRAM、使用時間制限あり)か、月額数万円規模のクラウド費用が必要だった。Unsloth × Hugging Face Jobsの組み合わせはこの状況を変える可能性がある。
12億パラメータクラスのモデルであれば、1回の学習ランが数ドル台で完了する。無料クレジットと組み合わせることで、実験段階ではほぼコストなしでモデルをカスタマイズし、成果が出れば有料枠に移行するという段階的な利用が現実的になった。LLMのファインチューニングがより広いコミュニティに開かれた一歩として、今後の活用事例に注目したい。