モバイル、ウェブ、組み込みアプリケーション全体に AI をデプロイする
-
デバイス
レイテンシを短縮します。オフラインで作業する。ローカルでデータを非公開に保つ。
-
クロス プラットフォーム
Android、iOS、ウェブ、組み込みで同じモデルを実行する。
-
マルチフレームワーク
JAX、Keras、PyTorch、TensorFlow モデルと互換性があります。
-
完全な AI エッジスタック
柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ
既製のソリューションと柔軟なフレームワーク
カスタムモデルをクロスプラットフォームでデプロイする
従来の ML と生成 AI 向けに最適化された JAX、Keras、PyTorch、TensorFlow モデルを、Android、iOS、ウェブ、組み込みデバイスで高パフォーマンスで実行します。
LiteRT を使ってみる複雑な ML 特徴用のカスタム パイプラインを構築する
複数の ML モデルと前処理ロジックと後処理ロジックを効率的に連結して、独自のタスクを構築します。CPU でブロッキングすることなく、高速化された(GPU と NPU)パイプラインを実行します。
MediaPipe Framework の使用を開始するGoogle のアプリを支えるツールとフレームワーク
ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを備えた AI エッジ スタック全体をご確認ください。
MediaPipe Tasks
生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスクにローコード API を使用して、モバイルアプリとウェブアプリに AI 機能をすばやく構築します。
生成 AI
すぐに使える API を使用して、生成言語モデルや画像モデルを直接アプリに統合できます。
Vision
セグメンテーション、分類、検出、認識、身体のランドマークにわたる幅広いビジョン タスクを探索します。
テキストと音声
言語、感情、独自のカスタム カテゴリなど、さまざまなカテゴリにテキストと音声を分類します。
MediaPipe フレームワーク
高パフォーマンスの高速化 ML パイプラインの構築に使用される低レベル フレームワーク。多くの場合、前処理と後処理を組み合わせた複数の ML モデルが含まれます。
LiteRT
モバイル、ウェブ、マイクロコントローラにわたって、ハードウェア固有のアクセラレーションを最適化し、あらゆるフレームワークで作成された AI モデルをデプロイします。
マルチフレームワーク
JAX、Keras、PyTorch、TensorFlow のモデルを変換してエッジで実行します。
クロス プラットフォーム
ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行します。
軽量で高速
LiteRT の効率的なランタイムは数メガバイトしか使用せず、CPU、GPU、NPU 全体でモデルの高速化を可能にします。
モデル エクスプローラ
モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。
Android および Chrome の Gemini Nano
Google の最もパワフルなオンデバイス モデルを使用して生成 AI エクスペリエンスを構築する