GoogleがGemma 4でオープンソースAI界を完全に変えた。これもうフリーで最強じゃん

つくば市のホームページ制作会社

4月2日、Googleが突然Gemma 4をリリースしました。これ、ちょっと衝撃的すぎて開発者界隈がざわめいてます。なにせApache 2.0ライセンスで完全フリー、商用利用も改変も再配布も全部OK。しかもベンチマークスコアが前世代から倍近く跳ね上がってるんです。

性能がエグすぎる。数学89%、コーディング80%

まず数字から見てみましょう。Gemma 3から4への性能向上が異次元レベルです。

AIME 2026数学ベンチマークが20.8%から89.2%に。LiveCodeBenchコーディングスコアが29.1%から80.0%に。GPQA科学問題が42.4%から84.3%に。これ、誤字じゃありません。本当にこんなに跳ね上がってるんです。

しかも4つのサイズが用意されてて、一番小さいE2B(23億パラメータ)でもスマホで動く設計。一番大きい31Bモデルは現在オープンモデルランキング3位です。テキスト・画像・音声すべて処理できて、140以上の言語をサポート。

Apache 2.0ライセンスが革命的すぎる理由

でも本当にすごいのは性能じゃなくてライセンスなんですよ。

従来のGemmaは独自ライセンスで企業利用に制約がありました。でもGemma 4はApache 2.0。これ何を意味するかって、企業が自社のインフラで動かして、独自データで学習させて、改造したバージョンを販売しても全然OK。ロイヤリティも払わなくていいし、データを渡す必要もない。

つまり「GPT-4級の性能を持つモデルを、完全に自分のものとして使える」ってことです。これまでOpenAIやAnthropicのAPIに月数十万円払ってた企業が、一気に自社運用に切り替えられる可能性が出てきました。

GoogleがApache 2.0にした戦略的な狙い

なんでGoogleがこんな太っ腹なことをしたのか。これ、慈善事業じゃなくて完全に戦略です。

OpenAIとAnthropicはAPIビジネスで収益を上げようとしてる。でもGoogleは違うゲームをしてるんです。クラウドサービス(Google Cloud)、開発ツール、Android生態系を拡大したい。だからAIモデル自体は無料で配って、周辺サービスで儲ける作戦。

実際、Gemma 4はGoogle AI Studio、Android Studio、Vertex AIと連携がバッチリ。「モデルはタダであげるから、うちのプラットフォームを使ってね」という誘導が見え見えです(笑)

開発者にとって何が嬉しいのか

RESONIXの開発現場でも、これは相当インパクトありそうです。

まずコスト削減が半端ない。いままでClaude APIで月10万円払ってた処理を、自社サーバーで回せるようになる。初期投資は必要だけど、長期的には圧倒的に安い。

それとプライバシー。顧客データをOpenAIやAnthropicのサーバーに送りたくない案件って結構あるんですよ。でもGemma 4なら完全に自社環境で処理できる。

さらにカスタマイズ性。業界特有の用語や処理パターンを学習させたり、出力形式を完全にコントロールしたり。APIベースだと難しいことが、オープンモデルなら自由自在です。

エッジデバイスで動く意味

個人的に一番興奮してるのは、E2BとE4Bがスマホやラズパイで動くことです。

いままで「AIアシスタント作りたいけどサーバー費用が…」って諦めてた個人開発者や小さなチームが、一気に参入できるようになる。しかも完全オフラインで、レスポンスほぼゼロ秒。

IoTデバイスにAIを組み込むとか、店舗のタブレットに接客AIを入れるとか、可能性が一気に広がります。通信費もサーバー費用も不要で、プライバシーも完全に守られる。これ、中小企業のDX案件でめちゃくちゃ使えそうです。

オープンソースAIの新時代が始まった

Gemma 4のリリースで、AI業界の構造が根本から変わり始めてます。

これまでは「高性能AIを使いたければOpenAIかAnthropicに月額課金」が当たり前でした。でもApache 2.0ライセンスのGemma 4が登場したことで、「なんで毎月API代払ってるの?」って話になってくる。

特に中小企業にとって、毎月の従量課金って結構プレッシャーなんです。「今月APIを使いすぎて請求が高くなったらどうしよう」みたいな。でもオープンモデルなら、一度環境を整えれば後はハードウェア代だけ。

もちろん、自社運用にはそれなりの技術力が必要です。でも最近はOllamaやLM Studioみたいなツールで、普通の開発者でも簡単にローカルLLMを動かせるようになってる。Gemma 4も初日からこういうツールに対応してるので、導入のハードルは意外と低いかもしれません。

GoogleのGemma 4がスマホでAIエージェント時代を開く。チャットからサヨナラして自律AIが動き出した

つくば市のホームページ制作会社

4月2日、Google DeepMindから面白いものがリリースされました。Gemma 4という新しいオープンソースAIモデルファミリーです。何が面白いって、これまでのスマホでのAIは「チャット」が限界だったのに、今度はあなたのスマホの中で、AIが勝手にWikipediaを調べて、QRコードを作って、複数のタスクを組み合わせて実行してくれるんです。しかも完全にオフラインで。

従来のスマホAIは「質問したら答える」だけでした。でもGemma 4は違います。「Wikipediaで情報を調べて、それをもとに図表を作って、QRコードまで生成する」みたいな、複数ステップの作業を勝手にやってくれる。これが「AIエージェント」の世界です。

スマホ専用に最適化された驚きの軽量化技術

Gemma 4の技術的な面白さは「効果的パラメータ」という概念にあります。E2B(Effective 2 Billion)とE4B(Effective 4 Billion)という2つのスマホ専用モデルは、実際のメモリ使用量を極限まで削りながら、推論能力は大型モデル並みを維持しています。

具体的には、E2Bは約1.3GB、E4Bは約2.5GBのRAMで動作します。8GBのスマホなら余裕で動く計算です。Google曰く、前世代と比較して最大4倍高速化し、バッテリー消費も60%削減したとのこと。Armチップの最新命令セット(SME2)を使えば、平均5.5倍の処理速度向上も実現できるそうです。

この軽量化の秘密は「Per-Layer Embeddings(PLE)」という技術と、ローカル・グローバル注意機構のハイブリッド設計にあります。要は、必要な時だけフル性能を発揮し、普段は省エネモードで動作する仕組みです。

Agent Skillsで実現する自律作業フロー

本当に画期的なのは「Agent Skills」という機能です。Google AI Edge Galleryアプリ(AndroidとiOS両対応)をダウンロードすると、以下のような自律AIワークフローが体験できます:

  • 知識ベース拡張:Wikipediaを自動検索して最新情報を取得
  • インタラクティブコンテンツ生成:テキストから図表や暗記カードを自動作成
  • マルチモーダル処理:音声、画像、動画を組み合わせた複雑なタスクを実行
  • リアルタイム翻訳・転写:完全オフラインで音声をテキスト化や他言語に変換

しかも140以上の言語に対応し、最大256Kトークン(大型モデル)、128Kトークン(エッジモデル)という長文処理能力を持っています。つまり、長い資料を丸ごと読み込ませて分析させることも可能です。

開発者視点で見るとさらに面白い

Web制作の現場目線で見ると、Gemma 4の可能性はチャットの域を完全に超えています。Apache 2.0ライセンスで商用利用も自由ですし、Android StudioにはGemma 4を使ったコード補完機能も搭載予定です。

特に注目すべきは「function calling」(関数呼び出し)のネイティブサポートです。これにより、APIとの連携や外部ツールとの組み合わせが簡単になります。実際、Hugging Faceのコミュニティでは「ファインチューニング用の良い例を見つけるのに苦労するほど、最初から高性能」という評価も出ています。

中小企業の現場で考えると、これまで「AI導入」といえばクラウドサービスの月額料金やセキュリティ懸念がネックでした。でもGemma 4なら、一度ダウンロードすれば完全に自社内で動作するので、機密データも外部に出ません。

クラウドとの使い分けという戦略的視点

興味深いのは、GoogleがエッジとクラウドのAIを明確に使い分けている点です。スマホ上でプロトタイプを作り、必要に応じてGoogle Cloud上の大型Gemma 4モデルにスケールアップできる設計になっています。同じチャットテンプレート、同じトークナイザー、同じ関数呼び出し形式を共通化することで、開発からプロダクションまでシームレスな移行が可能です。

これって、中小企業のAI導入パターンとしても理にかなってます。最初はスマホやローカルPCで小さく始めて、効果が実証できたらクラウドでスケールするという段階的アプローチです。

GoogleはまもなくI/O 2026でGemini Ultra 2やAndroid 17の発表も予定しており、2026年がオンデバイスAI元年になりそうな勢いです。RESONIXとしても、このトレンドを踏まえたWeb制作やIT支援の提案を考えていく必要がありますね。気になることがあれば気軽に相談してください。

OpenAIが「Spud」コードネーム新モデルを4月に投入か。Geminiとの真っ向勝負が面白すぎる

つくば市のホームページ制作会社

またまた面白い展開になってきました。OpenAIがGPT-5.4の次に投入予定の新モデル「Spud」(コードネーム)が、実はもう完成していて4月中にリリースされる可能性が高いんです。しかも、Googleが今年に入ってからGemini 3.1 Proで業界トップに躍り出ている状況で、OpenAIがどう反撃するのか注目です。

「Spud」って何?GPT-5.5かGPT-6かもわからない謎モデル

OpenAIが内部で「Spud」と呼んでいるモデルは、3月24日に事前学習が完了したことが確認されています。その後の安全性評価期間(通常3〜8週間)を考えると、4月14日〜5月5日の間にリリースされる可能性が高いとのこと。

Polymarket(予測市場)では、4月30日までのリリース確率が78%と見積もられています。これは単なる噂じゃなくて、OpenAIの開発スケジュールを追跡している投資家たちが実際にお金を賭けている数字です。

気になる正式名称ですが、GPT-5.5になるのかGPT-6になるのかは「性能の向上度合い次第」らしく、まだ決まっていません。Sam AltmanCEOは社員に対して「経済を本当に加速させることができる非常に強力なモデル」と表現していて、かなり期待値を上げています。

Googleが今年の覇者になった理由

一方で、なぜOpenAIがこんなに急いでいるかというと、Googleが想像以上に強くなってしまったからです。2月19日にリリースされたGemini 3.1 Proは、16の主要ベンチマークのうち13項目でトップを取っています。

特に驚いたのがARC-AGI-2(純粋な論理・問題解決能力)で77.1%のスコア。これは前世代のGemini 3 Proの2倍以上の性能です。GPQA Diamond(専門的科学知識)では94.3%で、Claude Opus 4.6やGPT-5.2を上回りました。

しかも価格は据え置きで、100万トークンあたり入力$2、出力$12。GPT-5.4 Proより安くて性能が良いとなると、開発者にとってはGeminiを選ぶ理由が増えています。

OpenAIの「統合スーパーアプリ」戦略

Spudはただのモデルアップデートじゃなさそうです。内部情報によると、ChatGPT、Codex(コーディング)、研究機能、メモリー機能、エージェント機能を全て統合した「スーパーアプリ」の中核として設計されているとのこと。

4月上旬にCodex CLIが急速にアップデートされていて、プラグインやマルチエージェントワークフローに対応したのも、Spudのリリース準備だと見られています。

技術的には、コンテキストウィンドウが256K〜512Kトークンに拡張され、マルチステップのツール呼び出しがより安定し、JSON形式エラーの発生率が下がる予定です。コード生成についてはHumanEvalベンチマークで8〜12ポイントの改善が期待されています。

オープンソース陣営も本気モード

実は今回注目すべきはクローズドソース同士の競争だけじゃありません。Googleは4月2日にGemma 4をApache 2.0ライセンスで完全オープンソース化しました。これが結構すごくて、一部のベンチマークではGemini 3.1 Proに近い性能を発揮しているんです。

「パラメータあたりの知能」で考えると、オープンソースモデルが商用モデルの20倍のサイズのモデルを上回るケースも出てきています。コスト重視の企業や、データプライバシーを重視する用途では、オープンソース選択肢がかなり魅力的になってきました。

4月は「AI戦国時代」の幕開け

結局、2026年4月は「史上最も競争が激しいAIモデルシーズン」になりそうです。OpenAIがユーザーベース最大(ChatGPT有料契約者の55.2%シェア)、AnthropicがMythosで話題性、GoogleがGeminiでベンチマーク最強、そしてDeepSeekがオープンソースの伏兵という構図です。

開発者の立場としては、今は選択に迷う時期かもしれません。4月末までにSpudがリリースされて、実際にGemini 3.1 Proを上回る性能を示すかどうかが判断のポイントになりそう。

個人的には、この競争が結果的にユーザーにとってプラスになると思います。各社が本気で競い合っているおかげで、性能は上がり続けているし、価格も下がる傾向にある。まさにAI技術が成熟期に入った証拠じゃないでしょうか。

【NO.112】AIにより変わる教育、変えるべきは評価の基準。

Chat GPTなどのAI言語モデルの登場で、教育面で「学び」というものを改めて考え直す時期が来ているようで、日々多くの議論がされています。

学生のChat GPTの使用を規制するべきか?
宿題でChat GTPの答えをコピペしていたら意味がない。
論文をChat GPTに書かせていたら意味がない。

Youtubeなどでも多く議論を目にします。
AI賛成派の先生、AI反対派の先生、色々います。

例えば、「学生のChat GPTの使用を規制するべきか?」という議題。
Chat GPTが答えられないような問題を、教師が出す必要がある。と答える賛成派の先生もいれば
Chat GPTを使用し続ければ考えるという能力が育たない。と答える反対派の先生もいます。

みなさんはどちら派ですか?

わたし、すごく不思議なんです。
なぜ多くの人が「議題」があると、それが今議論し判断すべき問題であると思うのか?
出された「議題=問題」に対して、Yes / No または賛成/反対の答えを出さなきゃいけないのか?

この議題、定義が足りないんですよ。

今の社会って結果が評価される訳じゃないですか。
学生であれば、テストの点数であったり、論文の出来であったり。
評価はあくまで結果ですよね。

プラスして、より多く記憶し、より早く記憶したものを評価しますよね。

この評価で生涯年収が大きく変わったりする訳じゃないですか。
その評価基準が変わらないんだったら、Chat GPTは使うべきですよね。

必要なのは、Chat GPTを規制する規制しないではなく。
評価の基準を変えるべき時期だと考えます。

より多く、より早く、より正確にを評価するものを学習としてきたので
問題を出されると、それにそのまま答えるようになっている気がします。
問題自体が問題と考えられなくなってるのではと思うのです。

そもそも、日本政府が掲げている「ムーンショット計画」というものがありまして、その中の目標としてこうあります。

・2050年までに、望む人は誰でも身体的能力、認知能力及び知覚能力をトップレベルまで拡張できる技術を開発し、社会通念を踏まえた新しい生活様式を普及させる。

・2030年までに、望む人は誰でも特定のタスクに対して、身体的能力、認知能力及び知覚能力を強化できる技術を開発し、社会通念を踏まえた新しい生活様式を提案する。

このように、ちゃんと掲げてる訳じゃないですか。
2030年までに「強化できる技術を開発」
2050年までに「トップレベルまでに拡張できる技術を開発」と。

技術でクリアすると掲げておりながら、努力でクリアしなさいと言っているあたり、
よく分からんのですよ。

大切なのは、学びに対して努力をすることではなく
学びに対して興味を持ち、それを喜んで探求していくことだと思うのです。
評価をしなければいけない前提だから、AIに規制が必要かどうかの話になるわけで
評価をしない前提であれば、AIを使って興味のある分野を喜んで探求すれば良いだけだと考えます。

昔ならわかります、知能のレベルによって学校や教室を分け、効率よく教育をする必要があったので。
今はAIで一人ひとりの理解具合に合わせ教育できます。
教育者という職を残すためだけに、評価をするという仕組みが残ってる。
とも思えます。

ムーンショット計画にはこんな目標もあります。

・2050年までに、人が違和感を持たない、人と同等以上な身体能力をもち、人生に寄り添って一緒に成長するAIロボットを開発する。
・2030年までに、一定のルールの下で一緒に行動して90%以上の人が違和感を持たないAIロボットを開発する。
・2050年までに、自然科学の領域において、自ら思考・行動し、自動的に科学的原理・解法の発見を目指すAIロボットシステムを開発する。
・2030年までに、特定の問題に対して自動的に科学的原理・解法の発見を目指すAIロボットを開発する。
・2050年までに、人が活動することが難しい環境で、自律的に判断し、自ら活動し成長するAIロボットを開発する。
・2030年までに、特定の状況において人の監督の下で自律的に動作するAIロボットを開発する。

このような目標を掲げ、向かっている国が、AIの使用に規制をどうのこうの議論するって
人に注目されそうな議題をあげて、ただ人の時間の搾取をするだけのコンテンツを作り続けてるだけのように見えます。

そして、今議題にすべき重要なことは
国として国産のAI言語モデルを作ることに予算をぶっこむかってこと。

AI言語モデルは性質上、多く使われた物勝ちです。
つまり、何もしなければOpenAIの独り勝ちはほぼ確定であり、日本人はそのサービスを使い続けるために料金を支払い続けることになるわけです。

そうなれば、ムーンショット計画が現実化した時に必要なAIも料金を払い続けるわけです。

先日、AI分野で有名な東大の松尾教授が500億くらいでChat GPT 3.5と同レベルは作れると思うと言っていました。

わたしはここに挑戦したほうが良いと思うんですよね〜
どんだけ外資が稼げる可能性があるか。。。

異次元の少子化対策で3兆円。
そもそも先進国はこの50年間で軒並み出生率が下がっている訳で、
維持している国なんてひとつもありませんし、出生率低下の原因も解明出来ていません。

また、高齢者の面倒を見るために子供を増やさなきゃいけないように見えているのは私の偏見ですかね?
わたしなら、そんな考えの国にいま生まれてきたくないです。

もし、少子化対策がうまくいって来年出生率が上がったとします。
来年生まれる子が社会に出るのって、今から23年後くらいですよね?
つまり、2046年。
そこから4年でムーンショット計画の2050年なんですよ。

50年間、先進国全てが下げている出生率に3兆円かけるなら
この1年ほどでとんでもなく伸びているAIにかけた方が、みんなの税金も生きると思うんですよね。

500億でChat GPT 3.5と同レベルなら、3兆円かければ4レベルも無理じゃない気がしてます。

まとめます。

まず議題すべきは、国産の言語AIモデルを作るかどうか。
次に、学問における評価の基準の変更。
そして、AIをゴリゴリ扱える学生を育てること。

子供を育てやすい国という大人都合よりも
子供たちが生まれてきたいと思う国になるといいですね。

Just be hopeful