2025/3/18現在、ローカルでLLMを運用するうえで最適なモデルはgemma3ではないかと思います。通常のPCでも十分に稼働するのが最も評価すべき点ではないかと思います。
そこでこのセクションではOllamaでgemma3を立ち上げ、ローカルのDifyに接続する手順とそのテスト方法を説明します。
※10章を読んだ読者を対象とします。
米Googleは3月12日、オープンなLLM「Gemma 3」をリリースしました。
オープンソースであり、マルチモーダルに対応しています。
軽量かつ高性能をうたい、小規模なモデルはスマートフォンやノートPCなどのエッジデバイス上でも動作するらしいです。
人間が性能を評価するChatbot Arenaでは、なんとDeepSeek R1の次に高く、DeepSeek V3より高い評価を得ているようです。
Ollamaがサポートするモデル一覧にも早速gemma3が掲載されました。
もし、性能に問題なければgemma3は2025/3/17現在、ローカルLLMの候補としては最有力になるに違いありません。
そこで、さっそくOllamaでその性能を確かめてみました。