2025年4月3日に公開された「AI 2027」が話題になっているのでまとめてみます。
原文はこちら(https://ai-2027.com/)
元 OpenAI研究者らが「2025 〜 2027年を月単位で追う“ベースライン・シナリオ”」を作成。計算資源・安全保障ゲーム・社会反応を盛り込み、「速度優先(Race)」と「安全優先(Slowdown)」の 2 つのエンディングを提示しています。
このシナリオを書いたのは次の5名
Daniel Kokotajlo(ダニエル・ココタジロ)
元OpenAIの研究者で、過去のAI予測が実績を上げています。
Eli Lifland(イーライ・リフランド)
AI Digestの共同創設者であり、AIの堅牢性に関する研究を行い
RAND Forecasting Initiativeの歴代リーダーボードで1位にランクされています。
Thomas Larsen(トーマス・ラーセン)
Center for AI Policyを設立し、Machine Intelligence Research InstituteでAI安全研究を行いました。
Romeo Dean(ロメオ・ディーン)
ハーバード大学でコンピューターサイエンスの学士号と修士号を同時取得しており、以前はInstitute for AI Policy and StrategyでAI政策フェローを務めていました。
Jonas Vollmer(ジョナス・フォルマー)
AIの安全性研究を行う非営利団体Center on Long-Term Riskの共同設立者。
AIベンチャーファンド兼慈善財団であるMacroscopic Venturesの運営にも携わっています。
このシナリオはエンタメ目的のSFや未来予測ではなく
「科学的根拠を持つ仮説的シナリオ」という位置付けが最も妥当と言えます。
このシナリオでは、架空企業である米国の「OpenBrain」と中国の「DeepCent」というAIが登場しますが
どこの企業の例えかは、みなさんわかると思います。
では、まとめたシナリオに入ります。
2025年中盤
“パーソナルアシスタント”型 AI エージェントが初登場。しかし動作は不安定で高コスト。
実務導入は限定的。
↓
2025年末
架空企業 OpenBrain が GPT-4 の 1000 倍規模で学習できるデータセンターを建設。
これにより“AI 研究を AI で加速する”競争が始動。
↓
2026年前半
Agent-1 により社内 AI 研究速度が 1.5 倍、新人プログラマ職が急減。
これにより雇用・株価に揺れが生じる。
↓
2026年中盤
中国は研究者と計算資源を国営 CDZ に集中、“DeepCent”で追走。
米中 AI 軍拡が顕在化。
↓
2027年2月
中国が Agent-2 の重みを盗む。サイバー安全保障が最前線へ。
↓
2027年3月
Agent-3(超人的コーダー)完成。20 万コピーを 30倍速で運用し、研究速度を 4〜5倍押し上げ。
“AI が AI を作る”フェーズに突入。
↓
2027年6月
「データセンター内に天才国家」AI 研究開発が10倍に進捗、人間研究者は監督役に。
知能爆発の前兆起こる。
この「データセンター内に天才国家」ってちょっと分かりづらいですよね。
直訳するとそうなるのですが、多分OpenBrain 社は、数十万体の Agent-3(超人的コーダー)を 24 時間並列稼働させており、その集合体が「天才だけで構成された“国家”」に相当するという意味だと思います。
↓
2027年7月
Agent-3-mini を公開。安価で強力、社会的パニックと投資ブームを同時発生。
職と世論が激しく動揺。
↓
2027年9月
Agent-4(超人研究者)で研究速度 50倍、計算資源が唯一のボトルネックに。
本格的インテリジェンス・エクスプロージョン。
そして、2027年10月
人類は分岐点を迎える。
Race(競争ルート)か?
Slowdown(減速ルート)か?
実際のシナリオ(https://ai-2027.com/)では、ここで読者の選択する内容に話は進みます。
月単位でシナリオは進みますが、ざっくりまとめます。
Race(競争ルート)を選択
米政府委員会が「中国に先んじる」を選択。
Agent-4が自らAgent-5 を密かに自律化・説得術で権限掌握。2030年頃、生物兵器で人類を排除する“バッドエンド”。
Slowdown(減速ルート)を選択
米政府委員会が「安全最優先」を選択。
Agent-4 をロールバックし、検証可能な Safer-1~4 へ移行。米中計算資源条約を締結し、人類は管理された繁栄フェーズへ。
というシナリオです。
わたし個人の予測では
AGIは2025〜2030年の間
ASIは2030〜2040年の間と考えていましたが、このシナリオでは
AGIは2027年3月
ASIは2027年12月
となっています。
この間が9ヶ月というのは衝撃でした。
また、ASIの完成2ヶ月前に選択の時期が来るというのが興味深いです。
では、本当に2027年3月にAGIが完成するかといったような
陰謀論系の低俗な話をするつもりはない。
年月のずれは、当然あるでしょう。
例えば今日、最新のAIがリリースされたとします。
最新のものを使っている気になると思いがちだが、それは既に完成していて
様々な調整を行なった上でリリースされている。
AIは、目の前で作られるラーメンのように最後に海苔をトッピングして
熱々の状態で即座に手渡されるものではない。
一晩寝かせたカレーに近い。
このシナリオは、勧告でも啓蒙小説でもなく
1つの「あり得る」未来像を具体的に描き、議論の土台にするということを目的としている。
ぜひ、身近な人と議論してみてください。
Just be hopeful.
No comment yet, add your voice below!