たった3元・2時間でゼロからGPTを訓練!超軽量26MパラメータのAI言語モデル — minimind

jingyaogong/minimindPython42.9k

MiniMindは、大規模言語モデル(人間と会話できるAI)をゼロから自分の手で作れるオープンソースプロジェクトです。通常のAIモデルは数百億のパラメータ(AIの脳細胞のようなもの)を持ちますが、MiniMindはわずか2580万パラメータと超軽量で、GPT-3の7000分の1のサイズしかありません。NVIDIA 3090グラフィックカード1枚あれば、約2時間・わずか3元(約60円)のサーバーレンタル費用でチャットボットを一から訓練できます。AIの「ブラックボックス」を開いて中身を理解したい人のために、事前学習・対話学習・強化学習・知識蒸留など全工程のコードと高品質データセットをすべて公開しており、AI学習の入門教材としても最適です。

🔥 なぜ話題?

DeepSeekやChatGPTなどのAIブームの中で『自分でもAIモデルをゼロから作ってみたい』というニーズが急増しており、MiniMindはその敷居を極限まで下げた点が注目されています。特にDeepSeek-R1の推理モデルの再現や、PPO・GRPOなどの最新強化学習アルゴリズムをすべて自前実装している教育的価値の高さが、世界中の開発者・学生コミュニティで話題となっています。

💡 こう使える!

例えば、大学や独学でAIの仕組みを勉強しているとき、ChatGPTのような言語モデルが実際にどうやって動いているのか知りたくなったとします。MiniMindを使えば、自宅のゲーミングPCで2時間かけてゼロからAIチャットボットを訓練し、『秦の始皇帝について教えて』と質問すると実際に回答が返ってくるところまで体験できます。

ユースケース: AIの仕組みを基礎から学びたい人が、自分のパソコンでゼロからチャットAIを訓練し、大規模言語モデルの全工程を体験する。

  • GPT-3の7000分の1のサイズ(26M)で、1枚のGPUカードで2時間・約60円でゼロからチャットAIを訓練可能
  • 事前学習・SFT・LoRA・DPO・PPO・GRPO・知識蒸留まで全工程をPyTorch原生コードで実装し、第三者ライブラリに依存しない
  • DeepSeek-R1風の推理モデル再現やollama・vllm・llama.cppなど主要推理フレームワークとの互換性も完備
GitHubで見る →

🚀🚀 「大模型」2小时完全从0训练26M的小参数GPT!🌏 Train a 26M-parameter GPT from scratch in just 2h!

技術情報

言語

Python

ライセンス

Apache-2.0

最終更新

2026-03-24

スター数

42,931

フォーク数

5,162

Issue数

36

トピック

artificial-intelligencelarge-language-model

技術詳細

アーキテクチャ・仕組み

  • Transformer Decoder-Only構造(Llama3.1と同等)を採用
  • RMSNorm正規化、SwiGLU活性化関数、RoPE(回転位置埋め込み)を使用
  • MoE(混合専門家モデル)版はDeepSeek-V2/V3のMixFFN構造を参考に、共有専門家+ルーティング専門家の構成
  • GQA(グループクエリアテンション): kv_heads=2, q_heads=8 で効率的な推論を実現
  • YaRNアルゴリズムによるRoPE長文外挿をサポート

モデルバリエーション

モデル名パラメータ数推論時VRAMレイヤー数隠れ次元
MiniMind2-Small26M0.5GB8512
MiniMind2-MoE145M1.0GB8640
MiniMind2104M1.0GB16768

独自Tokenizer

  • 語彙サイズ: わずか6,400(Qwenの151,643やLlama3の128,000と比較して極小)
  • モデルの「頭でっかち」を防ぎ、総パラメータ数を最小化する設計思想
  • 中国語で約1.5〜1.7文字/token、英語で約4〜5文字/tokenの圧縮率

訓練パイプライン全工程

  1. Pretrain(事前学習): 約1.6GBの高品質中国語コーパスで知識を蓄積
  2. SFT(教師あり微調整): 対話形式を学習(512〜2048トークン長のデータセット複数種)
  3. 知識蒸馏: 白盒蒸馏(KL-Loss)と黒盒蒸馏(Qwen2.5からのデータ収集)両方を実装
  4. LoRA: 低ランク適応による効率的な微調整(peftライブラリ不要、ゼロから実装)
  5. DPO: 人間の選好に基づく直接偏好最適化
  6. PPO/GRPO/SPO: AI報酬モデル(InternLM2-1.8B-Reward)によるオンライン強化学習
  7. 推理モデル蒸馏: DeepSeek-R1風の<think>/<answer>タグ付き推論モデル

訓練コスト(NVIDIA 3090単体)

  • MiniMind2-Small (26M): pretrain約1.1h + SFT約1h = 約2時間、約3元(約60円)
  • MiniMind2 (104M): 全データセット使用時 約122時間、約158元(約3,200円)

対応環境・互換性

  • 推論フレームワーク: llama.cpp、vllm、ollama対応
  • 訓練フレームワーク: Llama-Factory互換
  • 分散訓練: DDP(単機多GPU)、DeepSpeed対応
  • 可視化: SwanLab(WandB API互換、中国国内アクセス可)
  • WebUI: Streamlit製チャットUI、OpenAI API互換サーバー
  • 外部ChatUI: FastGPT、Open-WebUI等と連携可能

評価・ベンチマーク

  • C-Eval、C-MMLU、OpenBookQA等の第三者ベンチマークで評価実施
  • 断点再開訓練機能(チェックポイント自動保存・復旧、GPU数変更対応、wandb連続性)

データセット(全て公開)

  • pretrain_hq.jsonl (1.6GB): 高品質中国語事前学習データ
  • sft_mini_512.jsonl (1.2GB): 高速訓練用SFTデータ
  • sft_512/1024/2048.jsonl: 各長さのSFTデータ
  • dpo.jsonl: 偏好学習データ(Llama3.1-70B/8B生成)
  • r1_mix_1024.jsonl: DeepSeek-R1蒸留推理データ
  • rlaif-mini.jsonl: RLAIF用1万条サンプル

ライセンス

  • Apache-2.0ライセンス

関連プロジェクト

  • MiniMind-V: 視覚マルチモーダル拡張版(VLM)

インストール・クイックスタート

クイックスタート(既存モデルを試す)

# リポジトリをクローン
git clone https://github.com/jingyaogong/minimind.git

# 依存パッケージをインストール
pip install -r requirements.txt

# 学習済みモデルをダウンロード
git clone https://huggingface.co/jingyaogong/MiniMind2

# 対話テスト
python eval_llm.py --load_from ./MiniMind2

# WebUIで試す場合
streamlit run web_demo.py

# ollamaで試す場合
ollama run jingyaogong/minimind2

ゼロから訓練する場合

# データセットを ./dataset/ に配置後
# 1. 事前学習
python train_pretrain.py
# 2. 対話微調整
python train_full_sft.py
# 3. テスト
python eval_llm.py --weight full_sft

参考になる外部の関連記事

関連リポジトリ

写真1枚でリアルタイム顔入れ替え!ワンクリックでディープフェイク映像を生成 — Deep-Live-Cam

hacksider/Deep-Live-CamPython90.5k

Deep-Live-Camは、たった1枚の写真を用意するだけで、ウェブカメラの映像やビデオの中の顔をリアルタイムに別人の顔に入れ替えられるソフトウェアです。「顔を選ぶ→カメラを選ぶ→ライブボタンを押す

PDF・Word・Excel・画像…なんでもMarkdownに一発変換!AI時代の万能ファイル変換ツール — markitdown

microsoft/markitdownPython109.1k

MarkItDownは、PDF、Word、Excel、PowerPoint、画像、音声、HTMLなど、さまざまな形式のファイルをMarkdown(シンプルな書式付きテキスト)に変換するPython製の

LLMアプリのレシピ集!ChatGPTから音声エージェントまで実例満載 — awesome-llm-apps

Shubhamsaboo/awesome-llm-appsPython99.0k

awesome-llm-appsは、ChatGPTやGeminiなどの大規模言語モデル(AIの文章生成技術)を使った実用的なアプリケーションの作り方を集めたレシピ集です。AIエージェント(自動でタスク

使うほど賢くなるAIエージェント — 学習・記憶・自動化を全部入りで月5ドルから運用 — hermes-agent

NousResearch/hermes-agentPython87.5k

Hermes Agentは、Nous Research社が開発した「自己改善するAIエージェント」です。会話するたびに経験からスキルを自動生成し、ユーザーの好みや過去のやり取りを記憶して、使えば使うほ

AIに「このサイトで○○して」と頼むだけ!ブラウザ操作を全自動化するエージェント — browser-use

browser-use/browser-usePython84.1k

browser-useは、AI(人工知能)にウェブブラウザを操作させて、オンラインの作業を自動化できるPython製のツールです。「この求人に応募して」「買い物リストの商品をカートに入れて」といった自