モバイル、ウェブ、組み込みアプリケーション全体に AI をデプロイする

  • デバイス

    レイテンシを短縮します。オフラインで作業する。ローカルでデータを非公開に保つ。

  • クロス プラットフォーム

    Android、iOS、ウェブ、組み込みで同じモデルを実行する。

  • マルチフレームワーク

    JAX、Keras、PyTorch、TensorFlow モデルと互換性があります。

  • 完全な AI エッジスタック

    柔軟なフレームワーク、ターンキー ソリューション、ハードウェア アクセラレータ

既製のソリューションと柔軟なフレームワーク

一般的な AI タスク用のローコード API

生成 AI、ビジョン、テキスト、音声の一般的なタスクに対応するクロスプラットフォーム API。

MediaPipe タスクの��用を開始する

カスタムモデルをクロスプラットフォームでデプロイする

従来の ML と生成 AI 向けに最適化された JAX、Keras、PyTorch、TensorFlow モデルを、Android、iOS、ウェブ、組み込みデバイスで高パフォーマンスで実行します。

LiteRT を使ってみる
特徴 2

可視化で開発サイクルを短縮する

変換と量子化によるモデルの変換を可視化します。ベンチマーク結果をオーバーレイしてホットスポットをデバッグする。

モデル エクスプローラを使ってみる
特徴 1

複雑な ML 特徴用のカスタム パイプラインを構築する

複数の ML モデルと前処理ロジックと後処理ロジックを効率的に連結して、独自のタスクを構築します。CPU でブロッキングすることなく、高速化された(GPU と NPU)パイプラインを実行します。

MediaPipe Framework の使用を開始する
特徴 2

Google のアプリを支えるツールとフレームワーク

ローコード API からハードウェア固有のアクセラレーション ライブラリまで、あらゆるレベルのプロダクトを備えた AI エッジ スタック全体をご確認ください。

MediaPipe Tasks

生成 AI、コンピュータ ビジョン、テキスト、音声にわたる一般的なタスクにローコード API を使用して、モバイルアプリとウェブアプリに AI 機能をすばやく構築します。

生成 AI

すぐに使える API を使用して、生成言語モデルや画像モデルを直接アプリに統合できます。

Vision

セグメンテーション、分類、検出、認識、身体のランドマークにわたる幅広いビジョン タスクを探索します。

テキストと音声

言語、感情、独自のカスタム カテゴリなど、さまざまなカテゴリにテキストと音声を分類します。

MediaPipe フレームワーク

高パフォーマンスの高速化 ML パイプラインの構築に使用される低レベル フレームワーク。多くの場合、前処理と後処理を組み合わせた複数の ML モデルが含まれます。

LiteRT

モバイル、ウェブ、マイクロコントローラにわたって、ハードウェア固有のアクセラレーションを最適化し、あらゆるフレームワークで作成された AI モデルをデプロイします。

マルチフレームワーク

JAX、Keras、PyTorch、TensorFlow のモデルを変換してエッジで実行します。

クロス プラットフォーム

ネイティブ SDK を使用して、Android、iOS、ウェブ、マイクロコントローラでまったく同じモデルを実行します。

軽量で高速

LiteRT の効率的なランタイムは数メガバイトしか使用せず、CPU、GPU、NPU 全体でモデルの高速化を可能にします。

モデル エクスプローラ

モデルを視覚的に探索、デバッグ、比較します。パフォーマンスのベンチマークと数値をオーバーレイして、問題のあるホットスポットを特定します。

ナノ文字

最近の動画とブログ投稿