2025/3/18現在、ローカルでLLMを運用するうえで最適なモデルはgemma3ではないかと思います。通常のPCでも十分に稼働するのが最も評価すべき点ではないかと思います。

そこでこのセクションではOllamaでgemma3を立ち上げ、ローカルのDifyに接続する手順とそのテスト方法を説明します。

※10章を読んだ読者を対象とします。

Gemma3について


米Googleは3月12日、オープンなLLM「Gemma 3」をリリースしました。

オープンソースであり、マルチモーダルに対応しています。

軽量かつ高性能をうたい、小規模なモデルはスマートフォンやノートPCなどのエッジデバイス上でも動作するらしいです。

人間が性能を評価するChatbot Arenaでは、なんとDeepSeek R1の次に高く、DeepSeek V3より高い評価を得ているようです。

image.png

Ollamaがサポートするモデル一覧にも早速gemma3が掲載されました。

もし、性能に問題なければgemma3は2025/3/17現在、ローカルLLMの候補としては最有力になるに違いありません。

そこで、さっそくOllamaでその性能を確かめてみました。

image.png

テスト用ローカルマシンの仕様