Gemma オープンモデル

Gemini モデルの作成に使用されたものと同じ研究とテクノロジーに基づいて構築された、軽量で最先端のオープンモデルのファミリー

責任に配慮した設計のアイコン

責任に配慮した設計

包括的な安全対策を組み込んだこれらのモデルは、厳選されたデータセットと厳格なチューニングを通じて、責任ある信頼できる AI ソリューションを実現します。

比類ないパフォーマンスのアイコン

サイズに対する比類のないパフォーマンス

Gemma モデルは、2B、7B、9B、27B のサイズで優れたベンチマーク結果を達成しており、一部のより大規模なオープンモデルさえも上回るパフォーマンスを発揮します。

フレームワークの柔軟性

フレームワークの柔軟性

Keras 3.0 では、JAX、TensorFlow、PyTorch とのシームレスな互換性を利用できます。タスクに応じてフレームワークを簡単に選択して切り替えることができます。


Gemma 2 のご紹介

圧倒的なパフォーマンスと比類のない効率性のために再設計された Gemma 2 は、さまざまなハードウェアで��高速の推論を実現するように最適化されています。

5 ショット

MMLU

MMLU ベンチマークは、大規模言語モデルが事前トレーニング中に獲得した知識の広さと問題解決能力を測定するテストです。

25 ショット

ARC-C

ARC-c ベンチマークは、ARC-e データセットのより限定的なサブセットであり、一般的な(検索ベースと単語の共起)アルゴリズムで誤って回答された質問のみが含まれています。

5 ショット

GSM8K

GSM8K ベンチマークは、複数の推論ステップが必要な小学校レベルの数学の問題を解く言語モデルの能力をテストします。

3 ~ 5 ショット

AGIEval

AGIEval ベンチマークは、人間の知的能力を評価するために設計された実際の試験から得られた質問を使用して、言語モデルの一般的な知能をテストします。

3 ショット、CoT

BBH

BBH(BIG-Bench Hard)ベンチマークは、現在の言語モデルの能力を超えると見なされるタスクに焦点を当て、さまざまな推論と理解の領域で限界をテストします。

3 ショット、F1

DROP

DROP は、段落に関する個別の推論を必要とする読解力ベンチマークです。

5 ショット

Winogrande

Winogrande ベンチマークは、一般化された常識的推論を必要とする、バイナリ オプションによるあいまいな穴埋めタスクを解決する言語モデルの能力をテストします。

10 ショット

HellaSwag

HellaSwag ベンチマークは、物語の最も論理的な結末を選択することで、常識的な推論を理解して適用する言語モデルの能力をテストします。

4 ショット

MATH

MATH は、推論、複数ステップの問題解決、数学的な概念の理解を必要とする複雑な数学の問題を解く言語モデルの能力を評価します。

ゼロショット

ARC-e

ARC-e ベンチマークは、本物の小学校レベルの多肢選択式科学の問題で、言語モデルの高度な質問応答スキルをテストします。

ゼロショット

PIQA

PIQA ベンチマークは、日常的な物理的な相互作用に関する質問に回答することで、物理的な常識的な知識を理解して適用する言語モデルの能力をテストします。

ゼロショット

SIQA

SIQA ベンチマークでは、人々の行動とその社会的影響について質問することで、言語モデルが社会的インタラクションと社会的常識をどの程度理解しているかを評価します。

ゼロショット

Boolq

BoolQ ベンチマークは、自然に生じる「はい/いいえ」の質問に答える言語モデルの能力をテストし、現実世界の自然言語推論タスクを実行するモデルの能力をテストします。

5 ショット

TriviaQA

TriviaQA ベンチマークは、質問、回答、証拠のトリプルを使用して読解力をテストします。

5 ショット

NQ

NQ(自然な質問)ベンチマークは、Wikipedia 記事全体で回答を見つけて理解する言語モデルの能力をテストし、実際の質問応答シナリオをシミュレートします。

pass@1

HumanEval

HumanEval ベンチマークは、ソリューションがプログラミング問題の機能単体テストに合格するかどうかを評価することで、言語モデルのコード生成能力をテストします。

スリーショット

MBPP

MBPP ベンチマークは、基本的なプログラミングの概念と標準的なライブラリの使用方法に重点を置き、基本的な Python プログラミングの問題を解決する言語モデルの能力をテストします。

100%

75%

50%

25%

0%

100%

75%

50%

25%

0%

Gemma 1

25 億

42.3

Gemma 2

26 億

51.3

Mistral

70 億人

62.5

LLAMA 3

8B

66.6

Gemma 1

70 億人

64.4

Gemma 2

90 億

71.3

Gemma 2

270 億

75.2

Gemma 1

25 億

48.5

Gemma 2

26 億

55.4

Mistral

70 億人

60.5

LLAMA 3 星

8B

59.2

Gemma 1

70 億人

61.1

Gemma 2

90 億

68.4

Gemma 2

270 億

71.4

Gemma 1

25 億

15.1

Gemma 2

26 億

23.9

Mistral

70 億人

39.6

LLAMA 3

8B

45.7

Gemma 1

70 億人

51.8

Gemma 2

90 億

68.6

Gemma 2

270 億

74.0

Gemma 1

25 億

24.2

Gemma 2

26 億

30.6

Mistral

70 億人

44.0

LLAMA 3

8B

45.9

Gemma 1

70 億人

44.9

Gemma 2

90 億

52.8

Gemma 2

270 億

55.1

Gemma 1

25 億

35.2

Gemma 2

26 億

41.9

Mistral

70 億人

56.0

LLAMA 3

80 億

61.1

Gemma 1

70 億人

59.0

Gemma 2

90 億

68.2

Gemma 2

270 億

74.9

Gemma 1

25 億

48.5

Gemma 2

26 億

52.0

Mistral

70 億人

63.8

LLAMA 3

8B

58.4

Gemma 1

70 億人

56.3

Gemma 2

90 億

69.4

Gemma 2

270 億

74.2

Gemma 1

25 億

66.8

Gemma 2

26 億

70.9

Mistral

70 億人

78.5

LLAMA 3 星

8B

76.1

Gemma 1

70 億人

79.0

Gemma 2

90 億

80.6

Gemma 2

270 億

83.7

Gemma 1

25 億

71.7

Gemma 2

26 億

73.0

Mistral

70 億人

83.0

LLAMA 3

8B

82.0

Gemma 1

70 億人

82.3

Gemma 2

90 億

81.9

Gemma 2

270 億

86.4

Gemma 1

25 億

11.8

Gemma 2

26 億

15.0

Mistral

70 億人

12.7

Gemma 1

70 億人

2,430

Gemma 2

90 億

36.6

Gemma 2

270 億

42.3

Gemma 1

25 億

73.2

Gemma 2

26 億

80.1

Mistral

70 億人

80.5

Gemma 1

70 億人

81.5

Gemma 2

90 億

88.0

Gemma 2

270 億

88.6

Gemma 1

25 億

77.3

Gemma 2

26 億

77.8

Mistral

70 億人

82.2

Gemma 1

70 億人

81.2

Gemma 2

90 億

81.7

Gemma 2

270 億

83.2

Gemma 1

25 億

49.7

Gemma 2

26 億

51.9

Mistral

70 億人

47.0

Gemma 1

70 億人

51.8

Gemma 2

90 億

53.4

Gemma 2

270 億

53.7

Gemma 1

25 億

69.4

Gemma 2

26 億

72.5

Mistral

70 億人

83.2

Gemma 1

70 億人

83.2

Gemma 2

90 億

84.2

Gemma 2

270 億

84.8

Gemma 1

25 億

53.2

Gemma 2

26 億

59.4

Mistral

70 億人

62.5

Gemma 1

70 億人

63.4

Gemma 2

90 億

76.6

Gemma 2

270 億

83.7

Gemma 1

25 億

12.5

Gemma 2

26 億

16.7

Mistral

70 億人

23.2

Gemma 1

70 億人

23.0

Gemma 2

90 億

29.2

Gemma 2

270 億

34.5

Gemma 1

25 億

22.0

Gemma 2

26 億

17.7

Mistral

70 億人

26.2

Gemma 1

70 億人

32.3

Gemma 2

90 億

40.2

Gemma 2

270 億

51.8

Gemma 1

25 億

29.2

Gemma 2

26 億

29.6

Mistral

70 億人

40.2

Gemma 1

70 億人

44.4

Gemma 2

90 億

52.4

Gemma 2

270 億

62.6

*これは事前トレーニング済みモデルのベンチマークです。他の手法でのパフォーマンスの詳細については、技術レポートをご覧ください。

Gemma モデル ファミリー

新作

Gemma 2

Gemma 2 には、20 億、90 億、270 億のパラメータ サイズで利用可能な、高性能で効率的な 3 つの新しいモデルが用意されています。いずれも、安全性の向上が組み込まれています。

新作

DataGemma

DataGemma は、LLM を Google のデータ コモンズから取得した広範な実世界のデータに接続するように設計された最初のオープンモデルです。

Gemma 1

Gemma モデルは、軽量でテキストからテキストを生成する、デコーダのみの大規模言語モデルです。さまざまな自然言語処理タスク用に、テキスト、コード、数学コンテンツの膨大なデータセットでトレーニングされています。

RecurrentGemma

RecurrentGemma は、回帰型ニューラル ネットワークとローカル アテンションを活用してメモリ効率を高める、技術的に異なるモデルです。

PaliGemma

PaliGemma は、PaLI-3 にインスパイアされたオープンな視覚言語モデルで、SigLIP と Gemma を活用し、幅広い視覚言語タスクへの転送に使用できる汎用モデルとして設計されています。

CodeGemma

元の事前トレーニング済み Gemma モデルを基盤とする CodeGemma は、ローカル コンピュータに適したサイズで強力なコード補完と生成機能を提供します。

デベロッパー向けのクイック スタートガイド

Gemma クックブック

PaliGemma による画像キャプション、CodeGemma によるコード生成、ファインチューニングされた Gemma モデルによる chatbot の構築など、Gemma の強力さと汎用性を示す実用的なレシピと例をご確認ください。

責任ある AI 開発

責任に配慮した設計

慎重にキュレートされたデータで事前にトレーニングされ、安全性を考慮して調整されているため、Gemma モデルに基づく安全で責任ある AI 開発に役立ちます。

堅牢で透明性の高い評価

包括的な評価と透明性の高いレポートにより、モデルの制限が明らかになり、ユースケースごとに責任あるアプローチを採用できます。

責任ある開発を推進する

Responsible Generative AI Toolkit は、デベロッパーが責任ある AI のベスト プラクティスを設計して実装できるように支援します。

Google Cloud アイコン

Google Cloud 向けに最適化

Google Cloud の Gemma モデルを使用すると、Vertex AI のフルマネージド ツールまたは GKE のセルフマネージド オプションを使用して、特定のニーズに合わせてモデルを詳細にカスタマイズし、柔軟で費用対効果の高い AI 最適化インフラストラクチャにデプロイできます。

Google Cloud クレジットで学術研究を加速する

学術研究プログラムの申請期間が最近終了し、Gemma モデルを使用して科学的発見の限界を押し広げる研究者を支援するために、Google Cloud クレジットが付与されました。このイニシアチブから生まれる画期的な研究を楽しみにしています。

Google Cloud で研究を推進するための今後の機会にぜひご期待ください。

コミュニティに参加

ML モデル コミュニティで他のユーザーとつながり、知識を探求して共有する。