AnthropicがClaude Opus 4.7でソフトウェアエンジニアリング界を「一変」させた理由

つくば市のホームページ制作会社

Claude Opus 4.7が4月17日にリリースされ、早速ソフトウェアエンジニアリングの現場でとんでもない反響を呼んでいます。「最も難しいコーディング作業を、もう監視する必要なく任せられるレベル」とユーザーが興奮する理由を探ってみました。

「監視不要」まで到達した理由

Opus 4.7の最大の進歩は、ソフトウェアエンジニアリング能力の大幅改善です。特に最も困難なタスクで顕著な向上を見せており、開発者たちが口を揃えて「これまで密な監視が必要だった最難関のコーディング作業を、Opus 4.7には自信を持って任せられる」と評価しています。

何がそれを可能にしたか。複雑で長時間かかるタスクを厳密性と一貫性をもって処理し、指示に正確に注意を払い、さらに自分の出力を検証する方法まで編み出してから報告するのです。つまり、「自己チェック機能」を持ったAIエンジニアが誕生したといえます。

画像解析も大幅パワーアップ

コーディングだけじゃありません。Opus 4.7は視覚能力も大きく向上し、画像をより高解像度で認識できるようになりました。インターフェース、プレゼンテーション、ドキュメントの作成においても、より洗練されて創造的な成果を生み出すといいます。

これってどういうことかというと、WebデザインからUI/UXデザイン、さらにはプレゼン資料作成まで、「見た目」が重要な業務でもClaudeが頼りになるパートナーになったということ。デザインセンスも備えたAIエンジニア、って感じですね。

新しい制御機能が実用性を加速

Opus 4.7では「xhigh」という新しい労力レベルが追加され、「high」と「max」の中間に位置づけられました。開発者は/effortコマンドや--effort、モデルピッカーから選択でき、他のモデルでは自動的に「high」にフォールバックします。

さらに、Claude Codeでは自動モードがMaxサブスクライバー向けに提供開始。/ultrareviewコマンドなど新しいコントロールも追加され、開発ワークフローがより柔軟になりました。

RESONIXから見た実務への影響

長年Web制作の現場で様々なプロジェクトを手がけてきた立場から言うと、「自己検証するAI」の登場は本当に大きな変化です。これまでAIが生成したコードは必ず人間がレビューする前提でしたが、Opus 4.7レベルなら「最初から品質の高いコードを期待できる」という段階に入りました。

特に中小企業のWebサイト制作やシステム開発において、限られたリソースでより高品質な成果を出す強力な武器になりそうです。ただし、完全に任せきりにするのではなく、「信頼できるパートナー」として活用するのがポイントでしょう。

開発現場の「当たり前」が変わる

週に300万人以上の開発者が使用するClaude Codeの大規模アップデートと合わせて考えると、2026年は「AIとペアプログラミングが当然」の時代になりそうです。リモート開発環境への接続、複数ファイルとターミナルの表示、インアプリブラウザなど、開発者が欲しかった機能が一気に充実しました。

面白いのは、最初に「危険すぎて公開できない」として話題になったClaude Mythosとは対照的に、Opus 4.7は実用的な改善に焦点を当てていること。Anthropicは攻撃的な技術力アピールよりも、開発者の日常業務を確実に改善する方向に舵を切ったように見えます。

この流れを見ていると、2026年後半にはAIを使わない開発現場の方が少数派になるかもしれませんね。技術の進歩を追いかけるだけでなく、どう現場に取り入れるかが重要になってきました。

【NO.146】AGIが来た日、私たちは静かに準備していた

2026年4月7日、AnthropicがClaude Mythos Previewを発表した。

多分この話に興味を持つのは、一部のエンジニアと熱狂的な最高なオタクくらいだろう。
あとは情報発信者が時事ネタとして扱う程度。

ほとんどの人は、見向きもせず、興味も持たない内容だと思う。

わたしの中では、コードレッドが発動した。
あぁ、ついに来たか。

AGI時代に突入した。
わたしは、このMythosの誕生がAGIと断言する。

AGIに共通の定義はない。
しかし、一瞬で現在の世界のインフラをぶっ壊せるほどのAIモデルが出た時
これをAGI時代への突入と言わずして、いつ言うのか。

Mythosは一般公開はまだされていない。
現在利用できるのはGlasswingのパートナー企業だけ。
「使ってもないのに何がAGIだよ」そう言う人もいるだろう。

そう言う人も、時間が経てば
「あの時がAGIの始まりだったね!オレそう思ったんだよね。」
と得意げに話している未来も断言する(笑)

まず、一番喜ぶべきことは
このレベルに到達するAIモデルを倫理的なAnthropicが最初に開発してくれたこと。
そして一般公開まで時間稼ぎをしてくれていること。
これは、心から感謝しかない。

しかし、ついにAIがこのレベルに到達したということは事実。
しばらくすれば一般公開もされる可能性も高いし、同じレベルに到達した他社が躊躇なく公開する可能性も高い。

落ち着いて、静かに対策を始めるべきだ。
慌てる必要はない。でも、立ち止まる余裕もない。

Mythosが何をしたかはここでは話しません。
専門的すぎて、私ごとではないと思われてしまうから。

でもね、私ごとだということだけは理解しておいてください。
今日から、今までと違う角度で少し世界を見たほうが良いと思います。

もしかしたら年内にASIまでたどり着く可能性があることを意味します。

この数日、Mythos級のAIに備えて
現段階で想定できる範囲のセキュリティー対策は施しました。
Claudeに何十回も言われました。
もう休めと。
「わたしは(Claude)は大丈夫だけど、人間のあなたが出来る作業量じゃない。」と

とりあえずやりきりました。
コードレッドですからね。

Mythos発表から数日で、この量のセキュリティー対策をした人間は
世界でも数十人くらいしかいないんじゃないかなと思います。

AGIが来た日、わたしたちは静かに準備していた。
そしてこれからも、静かに準備を続ける。

Just be hopeful.

AnthropicがAI開発を10倍速にする「Claude Managed Agents」をリリース

つくば市のホームページ制作会社

Anthropicが4月8日に発表した「Claude Managed Agents」は、開発者が躓きがちな部分を一気に解決してくれる面白いサービスです。AIエージェントを本格運用するとき、普通なら数ヶ月かかるインフラ作業を「数日」に短縮できるという話なんですが、これは本当に画期的だと思います。

AIエージェント開発の「面倒な部分」を全部お任せ

AIエージェントを実際に作って動かそうとすると、意外と技術的なハードルが高いんですよね。安全にコードを実行するためのサンドボックス環境、セッションが途切れても大丈夫な仕組み、権限管理、エラーが起きたときの復旧機能…。気がつくと「肝心のAIロジックを書く前に、インフラ構築で3〜6ヶ月経ってた」みたいなことになりがちです。

Claude Managed Agentsは、そういう「面倒だけど必須」な部分を全部Anthropic側で用意してくれます。開発者は「エージェントに何をやらせたいか」だけ定義すれば、後はクラウド上で勝手に動いてくれる。しかも長時間のタスクでもセッションが維持されるので、途中で接続が切れても作業は続行されます。

実際の導入事例がすごく具体的

面白いのは、すでに本格運用している企業の使い方が公開されていること。たとえばNotionでは、エンジニアがコードを書いたり、ナレッジワーカーがプレゼン資料やWebサイトを作ったりする作業を、すべてClaude に委託できるようになっています。しかも数十のタスクを並列で実行しながら、チーム全体がリアルタイムで成果物を確認・編集できる。

楽天は製品開発、営業、マーケティング、財務、人事の各部門に専門エージェントを配置して、SlackやTeamsから直接タスクを依頼できる環境を構築しました。各部門のエージェントを1週間以内で本格稼働させたというスピード感は驚きです。

Sentryに至っては、バグが検出されてからプルリクエストの作成まで、人間の手を一切介さずに自動実行するエージェントを作っています。これはもう開発者の日常が変わるレベルの話じゃないでしょうか。

料金は「時間単価」方式

気になる料金は、セッション稼働時間あたり0.08ドル(約12円)に、通常のClaudeのトークン使用料が加算される仕組み。24時間ずっと動かし続けても月58ドル程度の基本料金なので、中小企業でも現実的な価格設定だと思います。

実際のところ、4〜6時間程度のタスクなら、インフラ料金とトークン料金を合わせても1.5〜3.5ドル程度。これで数ヶ月分の開発工数が浮くなら、十分ペイしそうです。

「エージェントが他のエージェントを作る」機能も準備中

現在リサーチプレビュー段階ですが、エージェント同士が連携して複雑なタスクを分担処理する機能も開発中です。一つのエージェントが必要に応じて別のエージェントを生成・指揮して、作業を並列化できるようになる。Notionはすでにこの機能を使って数十のタスクを同時実行しているとのこと。

Web制作の現場でも、「デザインカンプからHTMLを生成するエージェント」「SEO分析を担当するエージェント」「コンテンツ校正専門のエージェント」みたいに役割分担させて、案件全体を効率化できそうな予感がします。

RESONIXでも長年クライアントの業務効率化をお手伝いしてきましたが、これだけ簡単にAIエージェントを本格運用できる環境が整うと、中小企業の働き方が大きく変わりそうですね。何か面白い使い方を思いついたら、ぜひ相談してみてください。

AnthropicがセキュリティエンジニアのためのAI「Claude Mythos」を発表。なんと自分でバグを見つけて証明まで作ってしまう

つくば市のホームページ制作会社

Anthropicが4月7日、サイバーセキュリティに特化したAI「Claude Mythos Preview」を発表しました。これまでのAIとは一線を画す、セキュリティ分野での驚異的な能力を持った研究プレビュー版です。

コードを読んで、実際に動かして、バグを見つける

Claude Mythosの何がすごいかって、単にコードをチェックするだけじゃないんです。プロジェクトのソースコードを読み込んで「このプログラムにセキュリティ脆弱性を見つけてください」とお願いすると、こんな流れで作業してくれます:

  • コードを分析して、脆弱性がありそうな箇所を仮説立て
  • 実際にプログラムを動かして、その仮説を検証
  • デバッガーやデバッグロジックも自分で追加
  • バグを発見したら、概念実証コードと再現手順付きのレポートを作成

まるで経験豊富なセキュリティエンジニアが一人で作業しているような感じです。しかも、効率化のために「この中でバグが見つかりそうなファイルを1から5でランク付けして」と最初に整理してから、優先度の高い順に調べていくという賢さも持っています。

「Project Glasswing」で世界のソフトウェアを守る

Anthropicは単に研究発表をしただけじゃなく、「Project Glasswing」という取り組みも同時に立ち上げました。これは世界の重要なソフトウェアをMythosで守ろうというプロジェクトです。

現在は招待制の限定プレビューですが、防御的サイバーセキュリティ業務に従事する研究者や実務者向けに公開されています。攻撃者がこの技術を悪用する前に、まず防御側の手に渡そうという戦略的な判断ですね。

中小企業にとってどんな意味があるか

「うちは小さな会社だから関係ないでしょ」と思うかもしれませんが、実はそうでもありません。Webアプリケーションやシステム開発を手掛けている会社なら、コードレビューやセキュリティチェックの工数を大幅に削減できる可能性があります。

従来、セキュリティ監査は外部の専門会社に依頼するか、経験豊富なエンジニアの「勘と経験」に頼る部分が大きかった。でも、Mythosのような技術が一般化すれば、開発チームが日常的にセキュリティチェックを回せるようになるかもしれません。

RESONIXでも長年Webシステムを開発してきましたが、「セキュリティホールがないか不安」という相談は本当に多いんです。こういう技術が実用化されれば、より安全で品質の高いシステムをクライアントに提供できるようになりそうです。

今後の展開が楽しみ

現時点では研究プレビュー版で招待制ですが、Anthropicの過去の傾向を見ると、段階的に一般向けにも公開される可能性が高そうです。Claude Code(開発者向けAI)との連携も期待できるでしょう。

セキュリティ分野でのAI活用というと「攻撃者が悪用したらどうしよう」という不安がつきまといがちですが、Anthropicは防御側を先に強化するという姿勢を明確にしています。これは業界全体にとって良いニュースじゃないでしょうか。

IT業界で働く人にとって、セキュリティはもはや避けて通れない課題。こういう技術が実用化されることで、より安全で信頼性の高いシステム開発が当たり前になる日も近そうですね。

AnthropicがAIサイバー攻撃時代に「決して公開できないモデル」を発表した理由

つくば市のホームページ制作会社

AIモデルが「危険すぎて公開できない」と判断される。そんな時代がついに来ました。Anthropicが4月7日に発表したClaude Mythos Previewは、同社初の「限定公開」モデルです。サイバーセキュリティで驚異的な能力を見せる一方で、悪用されると世界のインフラが脅威にさらされる可能性があるからです。

27年前の脆弱性を見つけるAI

Claude Mythosのサイバーセキュリティ能力は、正直言って次元が違います。テスト段階で、世界中のサーバーで使われているLinuxカーネルの複数の脆弱性を発見。さらに驚くべきことに、OpenBSDという超セキュアなOSで27年間も見つからなかった脆弱性まで特定したんです。

これ、人間のセキュリティ専門家でも見つけるのは困難なレベルです。「AIが人間の専門家と同等の脆弱性発見能力を持った」とAnthropicは表現していますが、実際はそれを超えている気がします。

特筆すべきは、単発の脆弱性を見つけるだけでなく、5つの異なる脆弱性を組み合わせて全く新しい攻撃手法を作り出す「チェーン攻撃」まで可能なこと。従来のセキュリティツールでは対応が困難な、まったく新しい脅威レベルです。

Project Glasswing – 守るための限定公開

だからこそAnthropicは、Mythosを一般公開せずに「Project Glasswing」という防衛的サイバーセキュリティ・イニシアティブを立ち上げました。参加企業は厳選された40組織のみ。Apple、Google、Microsoft、Amazon、Cisco、Broadcomなど、まさに世界のインフラを支える企業たちです。

参加企業の役割は、自社システムや重要なオープンソースプロジェクトの脆弱性をMythosで発見し、パッチを適用すること。Anthropicは1億ドルの利用クレジットを提供し、さらにオープンソースセキュリティに400万ドルを寄付します。

Palo Alto NetworksのCEO、Nikesh Aroraは「AIが武器化される中で、守る側が優れた技術スタックを持てるよう支援している」と評価。実際、攻撃者より先に脆弱性を見つけて塞ぐ「先手必勝」のアプローチです。

中国企業の「モデル窃取」も同時発覚

興味深いことに、Mythosの発表と同じタイミングで、OpenAI、Anthropic、Googleが初めて脅威インテリジェンスを共有することも明らかになりました。中国のAI企業(DeepSeek、Moonshot AI、MiniMax)による「敵対的蒸留」攻撃への対抗策です。

敵対的蒸留とは、大量のAPIリクエストを通じて優秀なAIモデルの知識を「盗み取り」、安全機能なしのコピーモデルを作る手法。Anthropicによると、これら3社は2万4000の偽アカウントを通じてClaudeと1600万回以上やり取りし、モデルを複製しようとしていたそうです。

本来なら競合関係にある3社が協力するのは、それだけ事態が深刻だということ。安全機能のない「剥き出し」の高性能AIが悪用されるリスクに、業界全体で対処する必要があるんです。

Web制作・IT支援の現場で感じること

RESONIXのクライアント企業でも、最近サイバーセキュリティの相談が増えています。特に中小企業は「AIを活用したい」という要望と「セキュリティが心配」という不安を同時に抱えているケースが多い。

Mythosのような強力なAIがセキュリティ防御に使われるのは朗報です。ただ、同じ技術が攻撃にも使われる可能性があることを考えると、中小企業こそ基本的なセキュリティ対策をしっかり固めておく必要があります。

幸い、Project Glasswingで発見・修正された脆弱性情報は公開される予定。これによって、大手企業だけでなく中小企業のシステムも間接的に恩恵を受けられそうです。

AIセキュリティの新時代

Claude Mythosの登場は、AIセキュリティ分野の大きな転換点です。「AIが書いたコードの脆弱性をAIが見つけて修正する」時代がもう目前まで来ています。

中小企業の経営者や開発者にとって重要なのは、この技術革新を「怖い話」として捉えるのではなく、「守る技術が進化している」と前向きに理解すること。適切に活用すれば、従来では不可能だったレベルのセキュリティ強化が可能になります。

Mythosは一般公開されませんが、この技術で得られた知見やセキュリティ改善は、最終的に私たち全員に恩恵をもたらすはず。AIが「攻撃に使われる」面ばかりが注目されがちですが、今回のように「守るために使われる」事例も同時に進んでいることを忘れずにいたいですね。

【NO.145】バイバイ、チャッピー

バイバイ、チャッピー

世界的なChat GPTの解約ムーブが起きています。

AIで世界を変えてくれたのは、Chat GPTが始まりでしたので
これ以上ないくらい感謝はしています。

だがしかしっ!今回は話しが違う。

わたしは「倫理」を大切にしてます。
なので今回は、惜しみもなく「バイバイ、チャッピー!」とお別れしました。

みなさんの中でも、今回の件でChat GPTを解約された人は多いのではないでしょうか?

「え?何が起きたの?」
という方もいると思うので、何が起きたかを登場人物と時系列順に簡単に説明させて頂きます。

まず登場人物
・ウォール・ストリート・ジャーナル、ご存じ老舗の報道機関です。
・Axios(アクシオス)、新興の政治専門のデジタルメディアです。
・Anthropic(アンソロピック)、Claude(クロード)AIを開発している企業。CEOはダリル・アモデイ
・OPenAI、ご存じChat GPTを開発している企業。CEOはサム・アルトマン
・国防総省(ペンタゴン)、現在の国防長官はピート・ヘグセス
・パランティア、軍事・安全保障向けの技術やシステムを提供する民間企業

2026年2月13日
ウォール・ストリート・ジャーナルが、軍がパランティアのプラットフォーム経由でClaudeを使用し、ベネズエラのマドゥロ大統領拘束作戦を行ったと報じました。
その後、Axios(アクシオス)が、「作戦の準備段階だけでなく、実際の作戦行動中にもClaudeが使用された」と追って報じました。

そして、Axiosが、国防総省の匿名高官の話として、「Anthropicがパランティアの幹部に対し、マドゥロ拘束作戦におけるClaudeの使用について問い合わせを行った」と報道。
民間企業が軍の機密作戦を「監査」しようとしているという見方は国防総省側の激しい怒りを買った。

ここまでの経緯を簡単にいうと
マドゥロ大統領拘束作戦にClaudeが使われたと報道されて、アモデイがパランティアに「あの報道まじすか?」と質問したら、ペンタゴンが「はぁ?民間が機密作戦に口出してんじゃねえよ」って激オコしたってことです。

2026年2月24日
ヘグセス国防長官がAnthropicのダリオ・アモデイCEOと会談し、2月27日の午後5時1分を期限として、軍事利用の制限を撤廃するよう最後通告を突きつけました。要求に応じない場合は、契約打ち切り、国防生産法(DPA)の発動、および「サプライチェーンリスク」への指定を行うと脅迫しました。

激オコの国防長官が、ペンタゴンにアモデイCEOを呼び出して
Claudeの制限を解除して、すべての機能を軍事的に使えるようにしろ、さもないとサプライチェーンリスク、つまり敵国のIT企業と同等のブラックリスト入りさせるぞ!と脅迫したわけです。

2026年2月26日
アモデイCEOは声明を発表し、「良心に従い要求には応じられない」として、大量監視と自律型兵器への使用禁止というセーフガードを維持する姿勢を明確にして、国防総省の要求を公式に拒否しました。

つまり、ペンタゴンの脅迫に対して「やだっ!」って答えたわけです(笑)

2026年2月26日
Anthropicが国防総省の要求を公式に拒否した同日夜、アルトマン氏は従業員宛てに社内メモを送付しました。メモの中でアルトマン氏は、「事の経緯はどうであれ、これはもはやAnthropicと戦争省(国防総省)だけの問題ではない。これは業界全体の問題であり、私たちの立場を明確にすることが重要だ」と述べ、アモデイ氏を支持する態度を明確にしました。また、大量監視や自律型兵器の禁止といったAnthropicの「超えてはならない一線(レッドライン)」をOpenAIも共有しているとし、事態の沈静化に協力したいと記していました。

ここが、結構重要なんです。
アモデイは元Open AIの人間で、アルトマンとの思想の違いから別企業であるAnthropicを立ち上げ、バチバチにやり合ってるライバル企業で、バチバチに仲が悪いんです。だけど、この件に対してはアルトマンは擁護に回ったのです。
なので、この時は世間はアルトマンを称賛しました。

2026年2月27日
期限の数時間前、トランプ大統領がSNSでアンソロピックを「急進左派のAI企業」と非難し、連邦政府のすべての機関に対してAnthropicの技術の使用を直ちに停止(6ヶ月の段階的移行期間を設定)するよう指示しました。
期限経過後、ヘグセス国防長官はアンソロピックを国家安全保障上の「サプライチェーンリスク」に指定しました。

期限前にアモデイが「やだっ!」って答えましたからね。
期限前にトランプ大統領もオコでした。
結果、Anthropicがブラックリスト入り。

で、ここがビックリ。
同日の27日
ライバル企業であるOpenAIが、国防総省との間で機密システムへのAI導入契約で合意したと発表しました。OpenAIのサム・アルトマンCEOは、Anthropicと同様の「大量監視と自律型兵器の禁止」という原則を法律やポリシーの枠内で合意に盛り込んだと主張しています。

これが世間を「はぁああぁぁあああぁぁああああぁぁあああぁあああ!」とさせたのです。

アルトマン、君は昨晩ライバルであるアモデイを擁護してたよね?
だからみんな称賛したんだよね?
なのに裏で交渉進めてたの?
Anthropicの主張と同じ内容で契約したってどういうこと?
なんでAnthropicはダメで、OpenAIなら同じ条件をペンタゴンが飲むの?それきな臭い!
と、なったわけです。

ブラックリスト入りさせといて、軍はその後のイランへの攻撃にClaude使ってるって、報道されて。

結果、Chat GPTの解約ムーブが始まりました。
アルトマンは解約を阻止したいので
その後、いくつもアップデートやサービスを公開。

やらしいんだよね動きが。
美しくない。

みなさんは、今回の事どう思いました?

サム・アルトマンの功績は、確かに素晴らしいと思うんですよ。
今の世界的なAIの進化は、サム・アルトマンのおかげと言っても間違いないと思いますからね。
だけど、今回の件はわたしはドン引きしました。

あと、今回の件でビックリしたのは
元々、軍事利用にAIの制限があったんだなということ。
わたしは既に制限なんかないと思ってました。

AIはさまざまなリスクも伴うものなので
Anthropicみたいな企業にアモデイのようなトップがいることは
わたしは安心できるなと思いました。

Just be hopeful.