スマホやIoTでAIをサクサク動かす!TensorFlow Liteの正統後継フレームワーク — LiteRT

google-ai-edge/LiteRTC++1.9k

LiteRTは、Googleが開発した「デバイス上で直接AIを動かす」ためのフレームワークで、TensorFlow Liteの後継にあたります。スマートフォン、パソコン、IoT機器など幅広いデバイス上で、AIモデルを高速かつ効率的に実行できるのが特長です。GPU(画像処理チップ)やNPU(AI専用チップ)といったハードウェアの力を自動的に活用して、画像認識や音声処理、さらには大規模言語モデル(ChatGPTのようなAI)までデバイス上で動かせます。クラウド(インターネット上のサーバー)に頼らずAIが動くため、通信不要・プライバシー保護・高速応答というメリットがあります。モバイルアプリ開発者やIoT機器メーカーなど、デバイス上でAI機能を組み込みたい人に最適なツールです。

🔥 なぜ話題?

生成AI(大規模言語モデルや画像生成AI)をスマートフォンなどのデバイス上で直接動かしたいというニーズが急増している中、GoogleがTensorFlow Liteを刷新しNPU対応や生成AI最適化を強化した新フレームワークとして発表したことで、大きな注目を集めています。特にQualcommやMediaTekのNPUへの統一的なアクセスが可能になった点が開発者の関心を引いています。

💡 こう使える!

例えば、Androidアプリで「カメラに映った物体をリアルタイムで認識して切り抜く(画像セグメンテーション)」機能を作りたいとき、LiteRTを使えばスマホのGPUやAI専用チップを活用して、インターネット接続なしでも滑らかに動作するアプリを開発できます。

ユースケース: スマートフォンやIoT機器のアプリにAI機能(画像認識、音声処理、チャットAIなど)をインターネット不要で組み込みたいときに使う

  • TensorFlow Liteの正統後継で、GPU・NPU(AI専用チップ)を自動活用して高速AI推論を実現
  • Android・iOS・Linux・macOS・Windows・Web・IoTとほぼ全プラットフォームに対応
  • 大規模言語モデル(LLM)など生成AIのデバイス上での実行に特化した最適化機能を搭載
GitHubで見る →

LiteRT, successor to TensorFlow Lite. is Google's On-device framework for high-performance ML & GenAI deployment on edge platforms, via efficient conversion, runtime, and optimization

技術情報

言語

C++

ライセンス

Apache-2.0

最終更新

2026-03-14

スター数

1,911

フォーク数

235

Issue数

1,565

技術詳細

アーキテクチャ・仕組み

LiteRTはTensorFlow Liteの後継として、AIモデルの「変換(Conversion)」「ランタイム(Runtime)」「最適化(Optimization)」の3つの柱で構成されています。PyTorchモデルからの変換もサポートし、.tflite形式を経由してデバイス上で推論を実行します。

新しいCompiled Model API

  • アクセラレータ(GPU/NPU)の自動選択
  • 非同期実行による全体実行時間の短縮
  • 効率的なI/Oバッファハンドリング
  • NPUランタイムとモデル配布の簡素化

対応プラットフォーム・ハードウェア

プラットフォームCPUGPUNPU
AndroidOpenCL / OpenGLGoogle Tensor*, Qualcomm, MediaTek, S.LSI*, Intel*
iOSMetalANE*
LinuxWebGPUN/A
macOSWebGPU / MetalANE*
WindowsWebGPUIntel*
WebWebGPUComing soon
IoTWebGPUBroadcom*, Raspberry Pi*

(*は近日対応予定)

モデル変換パス

  • 従来のMLモデル(PyTorch): litert-torchコンバーターで.tflite形式に変換し、AI Edge Quantizerで量子化最適化
  • 大規模言語モデル(LLM): LiteRT Generative Torch APIでリオーサリング・変換後、LiteRT LMでデプロイ

GPU高速化

  • ゼロコピーバッファ相互運用性による遅延最小化
  • 各種GPUバッファタイプに対応
  • OpenCL、OpenGL、Metal、WebGPUをサポート

関連エコシステム

  • LiteRT-LM: LLM特化の推論ライブラリ
  • LiteRT Torch Converter: PyTorchモデルを.tfliteに変換
  • XNNPACK: ARM/x86/WebAssembly向け高性能CPU推論オペレータライブラリ
  • MediaPipe: ライブ・ストリーミングメディア向けクロスプラットフォームMLフレームワーク

ビルドシステム

  • CMakeおよびBazelの両方に対応
  • Dockerベースのビルド環境を提供(Linux/Androidクロスコンパイル対応)

ロードマップ

  • NPUサポートの拡大と全主要ハードウェアアクセラレータのパフォーマンス向上
  • 生成AI(次世代オンデバイスモデル)向けの新しい最適化・機能追加
  • デバッグ・プロファイリング・最適化ツールの改善
  • コアプラットフォームのサポート強化と新プラットフォームの探索

ライセンス

Apache-2.0ライセンスで公開されており、商用利用も可能です。

インストール・クイックスタート

ソースからのビルド方法

  1. Dockerデーモンを起動する
  2. 以下のスクリプトを実行する
cd docker_build/
./build_with_docker.sh

Linux用Dockerイメージが自動作成され、LinuxおよびAndroid(クロスコンパイル)向けのビルドが可能です。

詳細は Get Started ガイド を参照してください。CMakeやBazelを使ったビルド手順も用意されています。

参考になる外部の関連記事

過去のトレンド履歴

関連リポジトリ

スマホもラズパイもOK!大規模言語モデルをエッジ端末で爆速動作させるGoogle公式フレームワーク — LiteRT-LM

google-ai-edge/LiteRT-LMC++3.1k

LiteRT-LMは、Googleが開発した大規模言語モデル(AIが文章を生成する仕組み)をスマートフォンやパソコン、IoT機器などの手元のデバイスで高速に動かすためのオープンソースフレームワークです

自分のパソコンでChatGPTのようなAIを動かせる!100以上のモデル対応の超軽量エンジン — llama.cpp

ggml-org/llama.cppC++102.3k

llama.cppは、大規模言語モデル(ChatGPTのようなAI)を自分のパソコンやスマホ上で直接動かすためのソフトウェアです。C/C++というプログラミング言語で書かれており、外部サービスに頼らず

中国発の本格派AI開発プラットフォーム!2333万人の開発者が選んだ産業用深層学習フレームワーク — Paddle

PaddlePaddle/PaddleC++23.7k

Paddleは中国百度が開発した深層学習フレームワークで、AIモデルの作成から実用化まで一貫してサポートするプラットフォームです。製造業や農業など様々な分野で実際に使われており、世界で2333万人の開

スマホだけでGemma 4が動く!完全オフラインで最先端AIを体験できるアプリ — gallery

google-ai-edge/galleryKotlin19.8k

Google AI Edge Galleryは、スマートフォンの中だけで大規模言語モデル(人間のように文章を書けるAI)を動かせるアプリです。インターネット接続なしで、AIとのチャット・画像認識・音声

AIモデルを軽量化!CPUでも爆速で動く機械学習エンジン — ggml

ggml-org/ggmlC++14.1k

ggmlは、AIモデル(機械学習の仕組み)を普通のパソコンやスマホでも速く動かせるようにする技術ライブラリです。通常は高性能なGPU(グラフィック処理専用チップ)が必要なAI処理を、CPUだけでも軽快