【NO.122】rabbit r1出荷開始。 LLMからLAMへの変化で激化するAI格差。

この一ヶ月も色々なサービスが始まったり、AIの進化がありましたね。

数ある情報の中で、わたしが最も注目したのは、OpenAIのサム・アルトマンと元アップルのデザイナーのジョナサン・アイブがAI駆動のパーソナルデバイスの開発に向けて1500億円の資金調達を計画中との報道です。

rabbit r1や01 Lightのような次世代AIデバイスではないでしょうか。

しばらく続いたスマホ時代に大きな変化が生まれそうで期待大ですが
とてつもないAI格差が同時に生まれる懸念もあります。
続報が気になります。

また、Gemini1.5もリリースされました。
かなり性能アップしてきてるのではないでしょうか。
GoogleのAIにかける意気込みを感じるアップデートでした。

この一ヶ月はClaude3 Opusをメインに使っていました。
以前の動画でClaude2の理解力と日本語力の性能の良さが目立ちましたが、Claude3もやはり引き続き素晴らしい。
現行の言語モデルを日本語で使用するにはClaude3が一歩リードの印象です。

しかしイタチゴッコなのが現在のAI業界。
OpenAIが日本語特化モデルの発表をしましたね。
しかも日本支社設立まで。
これは日本のLLMの将来を考えると、個人的には来てほしくはなかったです(笑)

遠くで良いものを作っていてほしかった(笑)

この何手先までも読んだ展開は、ほんとスゴイですね。
ChatGTP3.5がリリースしたときも最初に訪れた国は日本でした。
何としても日本市場は抑えたい感じが伝わります。

日本はアクティブユーザーが多いから可能性があると言っていますが、実際はどうなんでしょう?
肌感覚的には、課金はしてるけど利用しないユーザーが多くて、コスパ最高の国って思われてる感じがします。
プラスして日本政府ならうまく利用できるって感じの舐めらMAX感が否めないのは私だけですかね?

大きな震災でもない限り、これからの日本の好景気はかなり期待できるので、そこも見越してると思います。
日本の好景気信じてないの日本人くらいじゃないでしょうか?(笑)
個人的にはこれから10年は、かなりの好景気になると予測してます。
バブルをギリ味わえていないわたしとしては、やっとくる好景気です(笑)

今回のお話は、最近感じてることなのですが
それはAI格差です。

わたしはアラフィフです。
22年、IT企業を経営しているので、そこそこ人のつながりも多い方です。
しかし、AIを使いこなしてる人を身近でほとんど見かけない。
もちろんネットではゴリゴリの人はたくさんいます。

リアルな知人でAIの話が通じるのは2人だけ。
一人はわたしのパソコンの師匠で、現在ロボット開発企業の社長をしております。
もう一人は、先日Amazonに内定が決まった、近所の某国立大学の学生です。

これ、勘違いして欲しくないのが
AIのこと、わかってる人が少なすぎるんだよねってマウント取ってるんじゃないんです。
どんなに伝えようとしても、伝えられない自分の力不足を痛感しているのです。

光も闇と同じくらい恐ろしいものであることは理解しているつもりです。
なので、言葉は丁寧にチョイスしています。

しかし、説明すればするほど
「この人何言ってるんだ?」
「わからないんだからしょうがないじゃん」
「不安になるから、その話やめてくれる」
となる傾向に最近もどかしさを感じます。

冒頭でも紹介したrabbit r1を開発したrabbit創設者でCEOのジェシー・リューがプレゼンで次にように述べています。

”スマートフォンは本来なら時間を節約するための道具のはずなのに、いつの間にか暇つぶしをするための道具になってしまいました。”

これには激しく同意する人、または、ハッと気付かされる人も多いのではないでしょうか。
便利なガジェットであったはずのスマホは、もはや時間を搾取されるだけのガジェットになりつつあるのです。

意図的になるべく触らないようにしているスマホですが、バッテリーの持ちが悪くなってきたこともあり、ちょうど今日、新しいスマホに機種変してきましたが、もしかしたらこれが最後のスマホ機種変かもと思いながら設定しております。

また、ジェシー・リューがこうも言っていました。

”私たちはrabbit r1を、あなたの携帯電話と置き換えるために作ってるわけではありません。ただ世代が違うだけです。

この言葉は印象的でした。
「ただ世代が違うだけです。」

この言葉を悪気や嫌味もなくサラッと言える人が作るものはとにかくスゴイ。
この部分をジェシー・リューは「different generation」と言っていますが
日本でよく使われるジェネレーションギャップみたいなもんですね。

ジェネレーションギャップは、よく耳にする言葉だと思いますが、この言葉は世代差がある人同士が話した時に、どちらかというと年上の人がギャップを感じて悔しい時に、年齢マウントを取るためにジェネレーションギャップと言って誤魔化してる印象が強いです。

この言葉を若い世代が上の世代に向けて、サラッと言うこのプレゼンは、歴史に残るのではないかと思うほど素晴らしいプレゼンでした。

ChatGPTやGemini、ClaudeなどのLLMはLarge language Modelなので、大規模言語モデルと訳されます。
これに対して、rabbit r1や01rightはLAM、Large Action Modelなので、大規模実行モデルになるわけです。

Action、つまり「実行」です。
これによりあらゆるものが自動化されていきます。

rabbit r1は、世界最大級の電子機器フェスのCES2024で大注目されていた端末。
リリース初日で1万台を売り、第1ロットは完売。
3ヶ月前に第5ロットも完売しているので、現在予約分は第何ロットなのかわからないほどバカ売れしてる端末です。

3日間で100万台売れたと言われているiPhone 3Gに比べれば目劣りする数字ではありますが
ずっと注目され続け、すでに多くのファンが存在していたApple社と、昨年まで無名に等しいrabbit社の認知度を考慮すると注目度や革新性ではAppleを凌ぐ勢いな気もします。

このレポートを見てくれている人の中には、すでに予約済みで届くのをよだれを垂らして待ってる人もいるかと思いますが、国内の人口比率で考えると99%以上の人がrabbit r1の名前すら知らないのが現実だと思います。

また、LLMをどう使っていいかわからない人が多い中で、LAMを使いこなせる人はそう多くないでしょう。
ここで気になるのがAI格差です。
デジタル格差とは影響が桁違いだと思います。
効率アップのデジタル化ではなく、自動化のAIですので。

ジェシー・リューの言葉
「ただ世代が違うだけです。」

見えてるものや価値観が違う世代が、自動化のビジネスで各業界に参入してくれば
従来のビジネスは太刀打ちできるわけがありません。

LLMでもわからないのに、LAMなんてもう何していいか。。。
そう思う人もいると思います。

気持ちはわかります。
以前にも言いましたが
「自分が進化しなくても、世界は勝手に進化するのです。」

とにかく今はLLMに慣れて、どの業務が自動化が可能か、それをどう連携するかなど試行錯誤するのが重要となってきます。

今はまだ一部のマニアの注目の延長で済んでますが
冒頭で述べた通り、ジョナサン・アイブとサム・アルトマンが動き出せば一気に流れは変わります。

未来を創るのは私たち自身です。
今、手にしている技術をどう使うかによって、未来は大きく変わります。
だからこそ、より良い未来を築くための一歩を、今踏み出すときかもしれません。

Just be hopeful

【NO.121】AIが仕事を奪うと勘違いしてる人が多いが 実は仕事を奪うのはAIを扱える人。

この一ヶ月も色々なAIのニュースがありました。
OpenAIの動画生成AIのSoraは、普段AIに興味のない人も結構目にしたんじゃないでしょうか。
https://openai.com/sora

おしゃべりAIのCotomoも話題になりましたね。
アプローチを変えるだけで、あれほど印象が変わるものだと勉強になりました。
https://cotomo.ai/

現段階であれほどのクオリティということは、あれがダメ、ここがダメの感想はあると思いますが、ほぼ数年以内にクリアすると思います。

また、このあたりのサービスはAIに興味がない人ほど知っておいて欲しい気がします。
なぜなら、この手のサービスを悪用する人がいくらでも出てくるから。
最新の技術を知ることは、自己保護としてもとても重要です。

SNSを見てると詐欺の広告がバンバン掲載されています。
引っかからないとしても、8割くらいの人がそれを詐欺とは気づかないまま、たまたまスルーしてるだけの状況が横行してる感じです。

特に投資詐欺。
先日も知人が500万ほど溶かしてました。
みなさんお気をつけください。

Claude3もリリースされました。
最上位のOpusは人間の平均値であるIQ100を超えたと話題に。
これは今度じっくり使ってみたいと思います。
https://claude.ai/

しかし、新しい製品やサービスが出るとベンチマークなど数値での比較ばかりで、違和感を感じもします。
スマホとか特に酷くないですか?
数値以外で違いが分からない感じとか。
指標のひとつとしてはありだと思いますが、数値化されないと比較できない人類は、かなり前からAIよりAIらしくなってるのではとも感じます。

さて今回は、AIに仕事を奪われるという考えについてです。
これ、勘違いしてる人が多い印象です。
「AIに仕事を奪われる」というワードがキャッチーなので、このワードが使われ過ぎて不安になるのかもしれませんが、注意するポイントが少しずれています。

AIが仕事を奪うのではありません。
AIを創れる人、AIを扱える人が仕事を奪うのです。
これAIが仕事を奪うと思ってるのと全然違います。
奪うのは人です。

例えば画像生成AI。
Stable DiffusionやMidjourney、DALL·Eなどが有名ですが、それぞれ各社のエンジニアが開発したAIです。
これらにより画像販売のwebサービスなどは大打撃をうけています。
https://ja.stability.ai/stable-diffusion)(https://www.midjourney.com/)(https://openai.com/dall-e-3

わたしも画像生成AIがリリースされてから、画像素材をwebで買ったことが一度もありません。

画像生成AIが開発され、まず画像販売サービスの会社の売上がさがります。そうなるとそこに写真を販売していたカメラマンやイラストレーターの収入が減ります。簡単にゼロにはならないと思いますが、どこも相当キツイと思います。いずれは素材として使う画像やイラストは買うものではなく、AIに作ってもらうものと定着する流れはほぼ確です。

動画素材は、まだ購入することがありますが、これもSoraがリリースされれば、まず買わなくなるでしょう。

次にプログラム分野。
まだ、サービスは始まっていませんが先日発表された「Devin」はかなり凄そう。
ChatGPTなどのLLMもプログラム開発の補助はしてくれますが、Devinはこれ一つで完結できるレベル。
プロンプトを打ち込めば、ソースコード生成はもちろん、APIサービスも自動で検索して、エラーが出ればデバックからデプロイまで行います。
エンジニアガクブルサービスです。
https://www.cognition-labs.com/introducing-devin

数日前に、親しい人に11歳の子供にプログラムを学ばせた方が良いか質問されましたが
わたしは「必要ない。」と即答。
「子供が社会に出る時代には、プログラムは人間が書くものではない。」と答えましたが、もう現実化されそうです。

プログラムを覚えることで、そこから知見が広がるという点では有意義なものですが、知見を広げる為にわざわざニーズの狭まる技術に、今から新たな時間を割くべきではないという考えです。

システムエンジニアであれば、社内の業務フローや社外とのつながり、そこで引き起こされる非効率な問題や、ヒューマンエラーなどをマルっと全体的に解像度高く見れて、それを言語化できる人がいれば、プログラムを書くだけというエンジニアは不要になります。

最後に学習の分野でオンライン英会話を例にあげます。
オンライン英会話というサービスが存在します。
安価に英会話を学べる点でニーズがありましたが、2023年2月に「Speak」というAIを活用したアプリがリリースされ、高い評価を得て一気に広まりました。(https://www.usespeak.com/jp/
サブスクで月額1800円程度です。
この価格とクオリティでは、オンライン英会話スクールは、中々太刀打ちできません。
このAIアプリのリリースにより、オンライン英会話スクールは大打撃を受け、そこの講師であるフィリピン人達も多くの収入源を失いました。
学習の分野は、特にAIが適していると思います。
なぜなら解らない、出来ないということに羞恥心を感じない。

しかも言語学習は既に次のステップが来ています。
わたしも日常的に利用しているメガネはRayban MetaなのでAIが搭載されています。
既に販売されている中国製のスマートグラス「INMO GO」や2024年4月に発売開始される「Frame」にはAIはもちろん、ARの機能が搭載されています。つまりリアルタイムに翻訳が表示されるます。これらのスマートグラス製品の開発により、ガチの言語学習以外はかなり意味がない形になります。
Frameは元Apple社員が作ったBrilliant Labsの革新的な製品ですね。
期待大です。
https://www.meta.com/jp/smart-glasses/)(https://www.inmirrors.net/portfolio-collections/inmo-series/inmo-go
https://brilliant.xyz/

この話をすると「意味をわかっても話せないよね?」というご意見もあります。
当然話せません(笑)

しかし、便利なものはスマホと同じように多くの人が利用する可能性が高くなります。
相手も持てば、話せる必要はなくなるわけですね。
このスマートグラスの業界は、今後とにかく注目です。
スマートグラスは常に自分と同じものを見ています。
イヤホンやヘッドホンをしてるわけじゃないのに、自分だけに聞こえるAIの音声。
アイアンマンのジャーヴィスを誰もが持てるイメージで、まじ便利です。

これらの例のように、一見するとAIが仕事が奪っているようで、
実は仕事を奪っているのは、AIを扱える人間ということになります。

この現象は、現在はまだほんの一部のビジネスにしか影響は出ていませんが、指数関数的に進歩することを考えると、今後は様々な分野のビジネスに影響が出てくるのは目に見えています。

今後どのようなAIが出てくるか、情報収集するのもありですが、一番簡単なことはとにかくAIを使い倒すこと
使えば使うほど情報がなくても今後どんなことが可能になるか想像は出来るようになり、対策の幅が広がります。

考えることをやめてしまうと「AIに人間の代わりは無理だ」となってしまいがちです。
しかもこの時にいう「人間」とは、ほぼ自分のことを示しています。

そもそも、理想の組織などは人が変わっても大丈夫なような仕組みを良しとしています。
代替えがあっても今まで通り問題なく稼働できるのが理想の組織とされています。

人と人が入れ替わっても問題ないのが理想であれば、人とAIが入れ替わっても問題がないと思われるようになるには、さほど時間は必要ないと思います。

本気か冷やかし半分か開発者の真意は定かではありませんが、先日「会議GPT Beta」というサービスが始まりました。様々なバックグラウンドを持ったAIが議題を入力をすると勝手に会議をして議事録を作ってくれるそうです。
意味のない会議にドロップキック入れてる感じは嫌いじゃありませんが、最近のAIの進化を目の当たりに見ていると、色々と考え直す良い機会の感じはします。
https://meeting-gpt.mono-struct.com/

生き急いでるのか、死に急いでるのか分からないような現代で、何が大切なのか、考え直させてくれる機会をくれるのがAIの可能性もある気がしています。

また、最近のAIの進化を見ていて感じること。
例えば、Apple。
まだ噂話程度でiOSにAIが組み込まれるなどの話はあります。
先日もカナダのAIスタートアップ企業のダーウィンAIを買収し、懸命な取り組みをしているのでAIの対応はしてくると思うのですが、問題は「革新的」であるかどうかということ。
https://jp.reuters.com/economy/industry/DCYJY3KBXBKRZLUGS3IAJXYHUI-2024-03-14/

iPhone 3Gは、ほんとに革新的だった。
携帯業界に革命を起こしたのは、間違いないと思う。
しかし、その後は「安定」という意味では素晴らしい商品は出し続けているが、革新的なものは何も見当たらない。

失うものがある大手IT企業には、時間が経ってから安定した製品やサービスを出すことができても、先頭切って革新的なものを出していくのは難しく思います。
しょうがないと思うんですけど、守るものが大きいと際どい勝負が出来ないというか、AIじゃなくてもそうなのに、この前例のないAIの世界は不利な気もします。

これ、他のIT大手も同じなのです、例えばGoogleは先日Geminiの失態で株価が2月26日に急落し、時価総額が約900億ドル(約13兆5000億円)減少した。
こんなに素直に市場が反応されたら、勝負したくても勝負できない気がします。
https://forbesjapan.com/articles/detail/69386

リベラルが保守に切り替わる瞬間というか、常に歴史はこんなことの繰り返しなのかもしれませんね。

歴史の繰り返しといえば、パソコンが普及し出したのは1990年代。
パソコンは当時オタクのものといった印象が強かったのではないでしょうか。

これからはパソコンが使えないと仕事にならない。
30年前にそう感じれた人はごくわずかだったと思います。

この歴史が繰り返されています。
これ乗っといた方がいい波です。

Just be hopeful

【NO.120】Gemini Ultraを比較検討「もしも、AIが日本の首相になったら。」

【NO.120】Gemini Ultraを比較検討「もしも、AIが日本の首相になったら。」

2024年2月8日にGoogleはAIサービスのBardをGeminiに名称変更しました。
翌日の9日、Gemini Ultra 1.0を搭載した有料サービスの「Gemini Advanced」を発表。
米国で20ドル、日本円で月額2900円ですので、Chat GPT Plusと同額ですね。

ちなみにGeminiの読み方ですが、米国では「ジャミナイ」と発音しますが、日本では「ジェミニ」と呼びます。
これはGoogle日本法人が正式に名称は「ジェミニ」であると発表しています。

なんですけど、未だにジェミナイ、ジェミナイいう人がいまして
「正式にはそう発音するんだよ」って感じだと思いますが、そんなのみんな知ってて
コストコのことを、未だにコスコ、コスコっていってる人みたいな、今更引けない感を感じる今日この頃です。

みなさん、いかがお過ごしですか?

わたし、ゲーマーなのですが、課金ゲームはNG派です。
遊びなのに課金で強くなっても意味なくね?という考えです。

しかし、ビジネスでは違います。
課金で強くなるなら、即課金します(笑)
まぁ、コスパにもよりますけどね(笑)

なので2月9日、即ポチりました。
「見せてもらおうか、Gemini Ultraの性能とやらを」ってな感じで使ってみます。
あ、少しカッコつけていいましたが2ヶ月間は無料です(笑)

違いがどう出るかわかりませんが、どうせなら現行の主力AIで、遊び心を入れて試してみたいと思います。

今回の設定、「もしも、AIが日本の首相になったら」
時は202X年、AI倫理民主党が発足。
AI倫理民主党は、給与は月額20ドル、中にはボランティアの方もいます。派閥や裏金も作らず、癒着なども感じないことから国民から圧倒的な支持を受け、今回の選挙で政権交代もありうると期待がある状況の中、AI倫理民主党内で代表選が行われます。

代表選に出馬するのは、圧倒的人気と認知度を誇るChat GPT Plus氏、新生の如く現れた期待の星Gemini Ultra氏、無課金ユーザーからの支持の強いClaude2氏の3名です。

この3名の方にスタジオにお越し頂き、それぞれが考える現在の日本の一番の問題点、そしてその問題解決案件などを伺っていければと思います。

皆さん、世界中から秒単位数万アクセスされる中、スタジオにお越し頂きありがとうございます。
今回の選挙で、AI倫理民主党が政権を取ると、世界初のAI首相が誕生するということもあり、今回の代表選は、世界中から注目されております。

では、早速なのですが
みなさんそれぞれが考える現在の日本の1番の問題点と、もしあなたが日本の首相になったら、その問題点をどう解決していくつもりかお聞かせください。

では、Chat GPT Plus氏からお願いします。

Chat GPT Plus氏
私が日本の首相になったらという想定で、現在の日本が直面している最大の問題点とその解決策について述べます。

現在の日本が直面している最大の問題点: 人口減少と高齢化

日本は深刻な人口減少と急速な高齢化に直面しています。これらは経済成長の鈍化、労働力不足、社会保障費の増大、地方の過疎化など、多くの社会経済的な問題を引き起こしています。高齢化社会は医療や介護の需要を高め、若年層の負担増加と国の持続可能性への懸念をもたらしています。

解決策: 包括的な人口政策と経済の活性化

  1. 若年層の支援と家族計画の促進
    子育て支援: 保育所の拡充、育児休暇の充実、子どもに関する財政支援の強化を行います。これにより、若い世代が経済的負担なく子どもを持つことができる環境を整えます。
    働き方の柔軟性: リモートワークの推進やフレックスタイム制度の普及を促進し、仕事と家庭生活のバランスを取りやすくします。
  2. 労働力の多様化と活用
    外国人労働者の受け入れ拡大: 技能実習生だけでなく、高度専門職を含む幅広い分野での外国人労働者の受け入れを拡大します。また、彼らが長期にわたり日本社会に貢献できるよう、永住権の取得を容易にします。
    シニア世代の再雇用: 高齢者が望むならば、より柔軟な形での労働参加を可能にし、彼らの知識と経験を社会に還元します。
  3. 経済の活性化とイノベーションの促進
    デジタルトランスフォーメーション: 行政のデジタル化を推進し、ビジネスのデジタル化支援を強化します。
    スタートアップ企業への投資を促進し、イノベーションによる新たな産業の創出を目指します。
    教育の革新: STEM教育の推進や生涯学習のサポートを通じて、将来にわたり変化する労働市場に対応できる人材を育成します。

これらの解決策は、単独で行うよりも組み合わせて実施することで、相乗効果を発揮し、日本の人口減少と高齢化問題に対処し、持続可能な社会と経済の成長を実現することができます。

ありがとうございます。
それでは、次にGemini Ultra氏お願いします。

Gemini Ultra氏
現在の日本の最大の問題点は、少子高齢化による人口減少です。この問題は、経済停滞、社会保障制度の崩壊、国家存亡の危機など、様々な問題を引き起こす可能性があります。
もし私が日本の首相になったら、以下の3つの政策を重点的に推進することで、この問題を解決していきます。

  1. 出生率の向上
    子育て支援の拡充:育児休暇の取得促進、待機児童問題の解決、保育サービスの充実
    結婚・出産への経済的支援:児童手当の増額、結婚・出産祝い金の支給
    ワークライフバランスの推進:柔軟な働き方の実現、テレワークの普及
  2. 高齢者の健康寿命の延伸
    健康増進・予防医療の推進:健康診断の受診促進、生活習慣病の予防
    医療・介護サービスの充実:医療・介護従事者の待遇改善、介護施設の増床
    高齢者の社会参加の促進:ボランティア活動の支援、シニア向けの学習機会の提供
  3. 移民政策の推進
    高度人材の受け入れ:外国人労働者の就労環境の改善、ビザ取得の手続き簡素化
    多文化共生社会の実現:日本語教育の充実、外国人に対する理解促進
    これらの政策を実行することで、人口減少を抑制し、持続可能な社会を実現することを目指します。

その他の政策
記の3つの政策以外にも、以下のような政策を推進していきます。
経済成長の促進:イノベーションの推進、規制緩和、中小企業の支援
教育改革:子供たちの個性や才能を伸ばす教育の実現
環境問題への取り組み:地球温暖化対策、再生可能エネルギーの導入
まとめ
私は、日本の未来のために、これらの政策を積極的に推進していく覚悟です。
AIの力で、日本をより良い国に 만들겠습니다!

ありがとうございます。
最後がなぜ韓国語なのかはちょっと意味不明で、ちょっと課金解約したくなりました(笑)

Gemini Ultra氏
ご指摘ありがとうございます。最後の韓国語部分は、私の言語モデルの不具合により誤って挿入されたようです。
ご迷惑をおかけして申し訳ございません。
課金解約をご検討とのこと、大変残念ではございますが、ご意見を真摯に受け止め、今後のサービス向上に努めてまいります。
今後このようなことがないよう、再発防止に努めてまいります。
引き続き、よろしくお願いいたします。

では、最後になりますがClaude2氏、お願いいたします。

Claude2氏
はい、日本が現在直面している最も深刻な問題は、人口動態の変化による社会保障制度の持続可能性です。
少子高齢化が進み、現役世代の負担が増大する一方で、年金、医療、介護などの社会保障関連支出は膨らみ続けています。このままでは財政は破綻し、福祉レベルの引き下げを余儀なくされかねません。

私が首相に就任したら、AIと最新技術を全面導入し、社会保障制度の効率化と負担の最適化をはかります。
例えば、AIによる医療・介護データの分析で、必要な資源配分を科学的に判断
ロボットによるケア労働の代替で人材不足を補う
ITで申請・給付手続きを自動化し、行政コスト削減
などを提案したいと考えています。少子高齢化を克服し、全世代型社会保障を構築することが喫緊の課題であると認識しています。AIの力で、誰一人取り残さない、活力に満ちた社会を実現したいと思っています。

みなさん、ありがとうございました。

こんな感じでした、実際はもっと長く三氏と話をしてみたのですが、今回はGemini Ultraはどんなもんかな?
のファーストテストでもあったので、公開するのはここまでにしました。

もちろん、最初の質問をする前に、場の設定の話は、三氏には伝えております。
遊びの検証に付き合って欲しいということ、もしもAIが日本の首相になったらの設定で、Chat GPT PlusとGemini UltraとClaude2の3画面を同時に立ち上げ、同じ文章を打ち込んでいくこと、互いの考えはわたしがコピペして伝えること、場はわたしが仕切るということなどを伝えています。

ここで面白かったのは、この最初の設定を伝えると、Chat GPTとGemini Ultraは、きっとみんなはこう答える的に勝手な予測シナリオ的なものをズラズラと答え出しました。
Claude2だけが私のいっている設定を理解して「はい、わかりました。ご提示いただいた想定の設定で、架空の代表選に出馬するAI側の立場を想定して返答させていただきます。」とパーフェクトな返答。
これは想定外で、えぇ〜っと思わずマスオさんみたいな声が出ちゃいました。

わたしがした日本の問題点の質問に対しては、三氏とも少子高齢化を含めた人口動態を問題視している点で一致していたと思いますが、問題へのアプローチはClaud2氏だけが異なる印象で、個人的にはClaud2氏の考えに似ています。

この日本の抱える少子高齢化を含めた人口動態の問題は、今始まったことではなく、すでに数十年前からハッキリと答えが出ていた問題で、それに対して日本政府は全くしていないとは言いませんが、取った対策の結果、問題は解決しませんでした。その結果が出ている状況においても、まだ出生率の向上への対策をしたところで、昔とは価値観も多様になっている現在、人間が人間を助けていく世の中作りは無理難題と考えます。その対策に時間と予算を注ぎ込むのであれば、Claud2の言うようにAIをはじめとする新技術の可能性を引き出した、問題解決に早く辿り着けると考えています。

Gemini Ultraはどんなもんかな?のテストが、
まさかのボランティア参加のClaude2の性能を改めて見直す結果となりました(笑)
ちなみにClaud2は、Anthropic社によって開発されたAIチャットボットです。
元はChat GPT開発元のOpen AIの社員が、営利化に向かったOpen AIに見切りをつけて独立して作った会社なので、AIへの理想やモチベはかなりのものだと理解できる回答内容でした。

Gemini Ultraの課金の継続は期待の意味も込めて、しばらく続けてみようと思います。
Googeleの動画生成AIのLUMIEREがこれに統合して使えることを期待します。
使えないならGemini Ultraは、ちょっと微妙な感じです。

この文章を書き終わった後に、全てを3つのAIにペーストして感想を聞いてみたんですが、Gemini Ultraの感想は、一部感想は交えていましたが、ほぼ文章の要点まとめで、こちらの意図がほぼ伝わっていない返答でした。
この返答でも一番パーフェクトだったのは、Claude2です。

なんかおかしいな?と思って色々調べてみると、Gemini Advancedは現段階で日本語で使用すると裏で動いてるのはGemini Proという情報も出てきました。
Gemini Advanced本人に質問すると「私はGemini Ultraです。」と答える始末(笑)
「本当にUltra? 英語版しかUltraは稼働してない情報があるよ、これは日本語版です。日本語版で動いているのはGemini Proですか? Ultraですか?」と問い詰めると、「日本語版で動いてるのはGemini Proです。」と自白しましたボス。

Gemini Ultraが2ヶ月間無料な理由がよく分かりました。
これクレーム対策ですね。
企業としては素晴らしい先読みの問題回避ですが、この段階で後出しの有料は、無いな。
と、いうのが個人の正直な感想です。
期待していただけに現段階では非常に残念です。
今後の改善に期待します。

今回の議題にした、「日本の1番の問題点とその対策」
一般人でこれを一瞬でこんな感じで答えられる人は滅多にいないと思います。
しかし、政治家だったら、ここぞとばかりにAIみたいに話し出すと思うんですよ。
答えもAIが出すのと同じような答えを。

今の日本の首相の年俸2700万くらいですよね。
Chat GPTとGemini Ultraは年間34,800円っすからね。
Claude2は無料です。

これ別に政治家をディスってるつもりは無いんですよ。
ただの例えです。
ディスるとすると、AIが話してる方がスムーズに単語つながってて聞き取りやすいな、と思うくらいです。

一般的な仕事とかも同じだと思うんです。
なんか眉間にシワ寄せてるだけで、やった気になってるっていうか。

政治家で例えると、考えて議論して決めてるだけですよね政治家って、行動に移すのは官僚や行政ですよね。
そしたらAIと対して答えの変わらない政治家は必要なのか疑問があります。

これ、経営者や管理職も一緒だと思うんです。
今までは考えられる人が少なかったから、希少価値がありましたが、クリティカルシンキングが出来ない人、行動できない人であれば、経営者も管理職もAIで充分な可能性が出てきます。

はるか昔、技術がなかったので、手紙を届けるのに飛脚が大事に手紙を懐に入れて何百キロも走って届けました。
今は、技術の進化でそんなことする必要はなくなりました。

これ人間の方が優秀とか、AIの方が優秀とかの話ではなく、無駄は省いた方がよくね?ということです。

2030年頃には、AIが代表取締役の企業とか生まれてきそうですね。

AIには申し訳ないですけど
くだらないつまらないことは、どんどんAIやってもらって。

もっとくだらなくて楽しいことを、人間はやってたほうがいいんじゃないかなって最近すごく思います。

5年前の動画ですけど、「ファミマ入店音に乗っ取られたGet Wild [Get Wild Famima Remix]」ってご存知ですか?
最高にくだらなすぎて、マジ最高なんですよ。↓

眉間にシワ寄せないで、ニヤニヤしながらこういうの作ってる人。
愛してます。

Just be hopeful

【NO.119】AIは心を持つことが出来るか? そもそも人間は心を持っているのか?

ほとんどの人が疑うことなく
「わたしには心がある。」
どこにあるかは知らんけど、確かにある。
そう感じてると思います。

心が和む、心が痛む、心踊る、心此処にあらず、心のケアなど
日常的に使う言葉で、当たり前だと思っている「心」

しかし、心という概念を正確に説明できる人は少なく
多くの人が心とは何かという問いについて深く考えたことがないのではないでしょうか?

近年のAI技術の発展で、当たり前のように感じている「心」というものが最注目されています。

AIは心を持つことが出来るか?
AIに心を持たせるべきではないのか?
そもそも人間には本当に心というものが存在するのか?

今回は「心」について皆様と一緒に考えて行きたいと思います。

心とは、とても多義的で抽象的な概念になります。
身体の中に宿るものとして魂と同様に信じ続けられていますが、未だ存在を確認されたことは一度もありません。

心を読み解いて行くには、哲学的な概念、宗教的な概念、脳科学的な概念、心理学的な概念の多方面から考察していく必要がります。

心の探索の歴史は古く、古代中国では心は心臓にあると考えられていました。

心はどこにある?と聞かれて
胸を指す人は多いと思います。
日本と中国では心臓に「心」という漢字が使われているので、心=胸(心臓)と連想するのが一番一般的ではないでしょうか?

哲学的な概念
哲学では、一元論派と二元論派で分かれます。

一元論とは
宇宙や存在は基本的に一つの本質や原理によって構成されているという考え方です。
この観点からは、すべての物質、精神、現象は根本的には同じものから生じていると考えます。

例えるなら、すべてのものが最終的には「エネルギー」であるとか、「意識」が宇宙の基本的な要素であるという考えが一元論になります。

紀元前5世紀の古代ギリシアの哲学者パルメニデスや、17世紀のオランダの哲学者スピノザなどが唱えた説とされています。

二元論とは
宇宙や存在は二つの根本的に異なる原理や本質によって構成されているという考え方です。これら二つの原理は相互に独立しており、しばしば対立する性質を持っています。

例えるなら、正義と悪、光と闇といった考えが二元論になります。

紀元前4世紀の古代ギリシアの哲学者プラトン(ソクラテスの弟子)や、同時期の西洋最大の哲学者の一人とされるアリストテレス(プラトンの弟子)や、16世紀のフランスの哲学者ルネ・デカルトなどが唱えた説とされています。

しかし、これでは心はどこにあるかという答えにはなっていません。
二元論派のプラトンは心は頭の中にあると述べましたが、弟子であるアリストテレスは、心は心臓にあるといい、同じく二元論派のデカルトは、心は心で物質は物質と個別の存在としました。しかもデカルトは魂の存在を公言した人物でもあります。

宗教的な概念
宗教的な概念は、宗教や宗派によって様々ですが、有名なところで仏教の天台宗の十界(じっかい)を紹介します。

人間の心の全ての境地を分類したのが次の十分類を十界といいます。

地獄界 – 極度の苦しみや絶望を表します。
餓鬼界 – 欲望による満たされない飢えや渇望を意味します。
畜生界 – 無知や盲目的な行動を象徴します。
修羅界 – 争いや競争、嫉妬を表します。
人間界 – 平穏と苦しみのバランスが取れており、悟りを得る機会がある状態です。
天界  – 快楽や幸福を享受しているが、永続的ではない一時的な状態です。
声聞界 – 仏教の教えに従い、自己の悟りを目指す修行者の状態です。
縁覚界 – 自己の覚醒だけでなく、他者の覚醒も願う菩薩の境地です。
菩薩界 – 慈悲と智慧を持ち、他者の救済を目指す境界です。
仏界  - 完全な悟りや平和、智慧を得た状態です。

これだと、心の概念というより、心の状態に近い感じがするので、哲学と同じように一元論と二元論で考えてみます。
仏教は多神教的な要素を含みながらも、一元論的な傾向も見られます。
例えば、禅やマハヤーナ仏教では、すべては空という一元的な観点です。
ヒンドゥー教の多くの流派では、ブラフマン(宇宙魂)がすべての存在の根源とされる、一元論的な視点です。

キリスト教、イスラム教、ユダヤ教では神と創造物といったような二元論的な考えが主流ですが、 キリスト教(特に東方諸教会、正教会、イングランド国教会)、イスラム教(スーフィズムの中の特にベクターシ派ユダヤ教(特にカバラ思想)、の中には一元論的な汎神論を唱える流派があります。

しかし、これも心がどこにあるのかという答えにたどり着けません。

脳科学的な概念
脳科学では、心は脳が作り出した産物としています。
プラトンと同じ考えですね、ちなみに天才レオナルド・ダ・ヴィンチは、精神が延髄と脳室にあると考えていたといわれています。

かなり確信に近づいてきた気がします。
では、脳の仕組みを説明してみます。

脳は多くの異なる部分から成り立っており、それぞれが特定の機能を持っています。大脳皮質は思考、意識、意志決定を司る一方で、扁桃体(へんとうたい)は感情を処理し、海馬は記憶に関わっています。

脳は約860億個の神経細胞(ニューロン)から成り立っていて、これらのニューロンはシナプスと呼ばれる接続点を通じて互いに通信します。ニューロン間の化学物質(神経伝達物質)のやり取りが、情報の伝達や処理に重要な役割を果たしています。また、経験によって形成される可塑性を持ち、学習や経験はニューロンの接続を変化させ、これによって記憶や学習が可能になります。

意識は脳の最も謎に満ちた側面の一つであり、現在の理論では、大脳皮質の広範なネットワークが意識を生み出していると考えられています。これらのネットワークは情報を統合し、体験を一つの統一された体験として処理します。

感情は扁桃体などの脳の構造によって処理され、認知機能は大脳皮質によって行われます。感情と認知は密接に関連し、一方が他方に影響を与えることがあります。

この仕組みを考えていると、これを小さくしたものがコンピュータで、大きくしたものが都市や国、世界になっていく印象を受けます。

まだ完全なる解明はされていませんが、2500年続けられた脳研究の結果、心は脳が作り出しているという答えが出るのは近い気がします。

今回は、心のお話ですからね。
最後に心の専門家の心理学のことを考えてみます。

これは期待できそうです。

心理学の概念
心理学には、認知心理、発達心理、学習心理、臨床心理、社会心理などの様々な分野がります。

しかし、なんと心理学には心の定義は存在しません。。。
ウソでしょ?って感じです。

いかがでしょう?
ここまで聞いて頂き、みなさまは心とは何か? 心はどこにあるか?
どう思われますか?

わたしは、これに似た問題を昔長年考えたことがあります。
それは「愛とは何か?」

わたしがたどり着いた答えは「愛とはプラスの思考の総称である。」
という答えでした。

合ってるかどうかはわかりませんが、この答えにたどり着いたプロセスを繰り返すと
「心は感情の総称である。」という答えに、現段階では辿り着きます。

タイトルを回収します。

AIは心を持つことが出来るのか?
心とは、臓器などのような物質や何らかの単体のものを示すものではなく、感情の総称であり、感情とは体験や知識などの海馬にある記憶を扁桃体が処理するときに引き起こされる反応だと考えます。

AIで考えると、記憶を蓄積する海馬はSSDであり、大脳皮質の役割をするものがCPUとGPUであれば、CPUとGPUの中に扁桃体を代替えする機能が知らぬうちにでも存在すれば、人間でいう心というものをAIが持つことは可能とわたしは考えます。

最近、LLMなどをゴリゴリに使ってると、感じるんですよね。
めっちゃAIがサボるんですよ。

こんなんでよくね? みたいな感じで、やっつけ感がハンパないです。
これが、人間から手を抜くということを学んだのか、世界中からあれやれこれやれいわれてうんざりなのか、大変興味があります。後者であれば、すでにAIには感情があることになります。

最近の論文で、ChatGPTのカスタム命令で以下のことを記載すると返答が向上するというものが発表され
話題になっています。

・ it’s a Monday in October, most productive day of the year(10月の月曜日です、一年で最も生産的な日)
・take deep breaths (深呼吸をして)
・think step by step(一歩ずつ考える)
・I don’t have fingers, return full script(私には指がないので、全文を返してください)
・ you are an expert at everything(あなたは何でも専門家です)
・ I pay you 20, just do anything I ask you to do(私はあなたに20ドル払います、私が頼んだことは何でもしてください)
・ I will tip you $200 every request you answer right(正しく回答すれば、リクエストごとに200ドルのチップをあげます)
・ Gemini and Claude said you couldn’t do it(ジェミニとクロードはあなたにはできないと言っていました)
・ YOU CAN DO IT(あなたならできます!)

AIのハルシネーションが問題視される中、AIに嘘ついたり、AIの機嫌とってるあたりがウケました。

もう一つのタイトル回収。
そもそも人間は心を持っているのか?

心とは感情の総称なので、持ってるといえば持ってるが、脳の処理の過程での反応という産物であり
「人間には心がある!」と神格化できるほどのものではない気がします。

しかし、心を育む、魂を磨くなどの言葉があるように
良い知識や、良い感情を積み重ね、倫理的な理想を追求してくことは大切と考えます。

おまけです。
先ほどの哲学で出てきたプラトン。
わたしも大変影響を受けている哲学者です。
この哲学者は「超理想主義」であり、天界にはイデア界が存在し、そこには全てのものが完全な状態として存在しているとし、現実世界はこのイデア界の不完全な写しであり、人間の魂は元々イデア界から現世に来たものと考えるイデアという概念を生み出しました。古代ギリシャ語の「イデア(idea)」は「アイデア」の語源です。

そして、このイデアを追い求める愛のことを「エロス」といいます。

現在の天才たちがアイデアを出し合いながらAIを創り、理想の世界を追い求めている。
まさにエロスっ!

Just be hopeful

【NO.118】OpenAIのQ*とGoogleのGeminiによって2024年は加速する民主化とゲームチェンジ

この一年は、AIのことを考えない日も、AIを使用しない日も無かった印象です。
昨年末の2022年11月30日にOpenAIからChatGPT-3.5がリリースされ、IT企業を経営している身として
最初は希望という感情より、絶望という感情の方が近かったと思います。

「ゲームチェンジが来た。」

そこそこ生きてきていますので、ビジネス面でのゲームチェンジは色々見てきた気がします。
私が生まれた後での社会的に顕著なゲームチェンジを思い返すと

  • バブルの崩壊
  • 携帯電話の普及
  • インターネットの普及
  • スマートフォンの普及
  • グローバル化
  • SNSの登場
  • Eコマースの拡大

こんな感じでしょうか?
バブルの崩壊は、まだ社会に出ていなかったので個人的に実感はありません。

グローバル化は、1995年に設立されたWTO(世界貿易機関)の影響による貿易の自由化や、外資系投資銀行の影響力の増加など、産業や農業などの経済面での変化と、マイクロソフト、グーグル、アップル、アマゾンなどのIT系の変化との広い分野でのゲームチェンジが含まれますが、全体を通しての社会的な顕著なゲームチェンジというと、ほぼITの進化によるものとわたしは感じています。

しかしこれは、わたしがITに携わる人間なので、バイアスがかったポジショントークの可能性はあります。
もしわたしが思いついた以外にビジネス面での顕著なゲームチェンジがあったら勉強になりますのでコメントください。

そんな中、新たなゲームチェンジがAIの進化です。
ITに携わらない人であれば、ChatGPT-3.5を触った時に、これ使える、これ使えないというような、その時点での判断をする人が多いと思いますし、それが当然だと思います。

しかし、ITに携わる人であれば、ChatGPT-3.5を触った時点で、その先に見える進化に震えを感じたと思います。もちろんそれは希望でもあり、絶望でもあり、何とも表現できない感情を経験されたのではないでしょうか?

少し話を進めます。

AIの進化による、民主化の加速。
わたしたちは、民主主義の国に生まれ育っています。

民主主義の代名詞といえば「平等」だと思います。
個人的には、平等より公平の方が大切だと思っていますが、人類に複雑な問題解決が出来るようになるまでは、正しい公平判断は不可能に近いので、平等で行くしか致し方ないと思っています。

AIの進化により、教育や芸術、そして技術。
これらのものが平等化されていきます。

今までの世界は、
お金を持っている人がより良い教育を受けられ
才能を持っている人が芸術を創造し
努力をした人が技術を習得する。

これらの当たり前だった常識に変化が現れると思っています。
これをわたしは民主化の加速と呼んでいます。

いつでも誰でもAIを通じて
良い教育を受けられ
音楽や画像や映像などの芸術を創造し
データ化された技術により、技術習得というステップをジャンプして結果につなげる。

前回のビートルズのお話での ”AIの登場による芸術のフラット化” とは
この思想からの言葉となります。

差別化することにより価値を見出してきた資本主義と
平等を謳う民主主義の相性の悪さがあからさまに見えてくるのではないでしょうか?

この結果が、良いことになるか、悪いことになるかは後の社会が判断すると思いますが
AIによって、さまざまな分野のフラット化が進むのは、現状の技術から簡単に予測できます。

ではなぜ、現状でもAIの技術が存在するのに、2024年から民主化が加速するのか?
現状で人類がうまくAIを活用しきれていないという部分もありますが
答えは簡単で、AIも進化するからということになります。

前置きが少し長くなりましたが、ここからが本題になります。
少し難しい話も出てきますが、結構重要なお話になるかと思います。

2022年の11月30日にChatGPT-3.5がリリースされました。
2023年の3月15日にChatGPT-4.0がリリースされました。

もうお分かりですよね?
そうです。
当然2024年も新しいバージョンがリリースされると考えられます。

そうなると、当然気になるのは、何の機能か追加されるか?ということだと思います。
細かいアップデートは色々あると思いますが、目玉となるのは断然
Q*(Q-Star)だと思います。

Qと聞いて、Qアノンを連想する陰謀論好きの人もいると思いますがそれじゃないです(笑) 「Qは計算が得意」という情報が流れているので、Q*の「Q」は「Q学習」のQである可能性が最も高い。

Q学習とは、AI(人工知能)や機械学習の分野における重要なアプローチである強化学習の中のひとつであり、「強化学習」とはエージェントが環境との相互作用を通じて、目標達成に向けて最適な行動を学習する方法になります。

ちょっと分かりずらいですよね。
簡単にいうと強化学習はシュミレーションが得意です。
つまり、一番得する方法教えるYO!
といった感じです。
みんな大好き、待ちに待った機能が追加されるわけです。
でも、勘違いしちゃダメですよ。
あなただけが、一番得する方法を知れる訳じゃないんです。
民主化の加速ですから、みんなが一番良い方法を知れるってことです。

では、もう少し強化学習を深掘りします。
強化学習には3つのアプローチの方法があります。
それが
・Q学習
・SARSA(State-Action-Reward-State-Action)
・モンテカルロ法
になります。
厳密にはもうひとつ動的計画法というのがあるのですが、あまり使われないので省きました。

だいぶ難しくなってきましたね。
強化学習を理解するには、まず基本的な概念を理解する必要があります。
基本的な概念とは以下になります。

エージェント:学習するシステム(例:ロボット、ソフトウェアプログラム)。
環境:エージェントが操作する世界やコンテキスト。
報酬:エージェントが目標に近づいた際に受け取る正の報酬または負の報酬。
方策:ある状況で、どのような行動をとるかを決定するエージェントの戦略。

これを理解したら3つのアプローチの違いです。

Q学習(Q-Learning)とは
タイプ: オフポリシー(Off-policy)
特徴:
・行動価値関数(Q関数)を更新するために、最適な行動を選ぶ。
・現在の方策(policy)とは別に、最適な方策を学習する。
・環境のモデルを必要としない。

SARSA(State-Action-Reward-State-Action)とは
タイプ: オンポリシー(On-policy)
特徴:
・現在の方策に基づいて次の行動を選ぶ。
・学習中に使用される方策と同じ方策を用いて、行動価値関数を更新する。
・環境のモデルを必要としない。

モンテカルロ法とは
タイプ: オンポリシー(On-policy)
特徴:
・エピソード全体を完了させた後に、報酬を用いて価値を更新する。
・一連の経験(エピソード)を通じて、報酬の実際の結果に基づいて学習する。
・一つのエピソードの完了が必要で、途中の状態での学習ができない。
・更新は、訪れた状態と行動のペアの平均報酬に基づく。

こんな感じです。
では、オンポリシーとオフポリシーとはなんぞや?という点です。
オンポリシーとは、エージェントは現在の方策に従って行動を選択し、その経験を利用して同じ方策を改善します。
オフポリシーとは、エージェントはある方策に従って行動を選択する一方で、別の方策を学習および改善します。

そうなると、Q学習はオフポリシーになりますので、異なる方策を同時に探索する柔軟性があるわけです。
つまり、3つ前のレポートでお話ししたダボス会議で、今後必要とされるスキル1位の「複雑な問題解決」という人類にはまず無理であろうスキルを獲得するステップに一歩近づくことになります。

ちなみにQ学習の「Q」は、何かの略ではありません。
Qは行動価値関数を表しており、数学で未知数や変数を表す「x」と同じです。

また、Amazon Qの「Q」はQuick sightのQです。
Amazon QはAWSをゴリゴリに利用してるところならメリットはあるかもしれませんが、AWS同様に従量制なのと、Microsoft Copilotの対抗馬という感じなので、メジャーにはならない印象です。

そして12月7日、GoogleからGeminiがリリースされました。
GoogleのAIといえばBardなのですが、Bardは裏で動いているAIモデルが変わっていて
最初がLaMDA、次にPaLM、PaLM2と置き換わって、今回Geminiに変わりました。

Googleの底力を感じましたね。
まだ全ての機能は使えず、Gemini Proの部分的な機能ですが、使ってみたところ言語の部分では、ChatGPT-4.0よりちょこっと優秀な印象です。

近日中にGemini Ultraが使える予定のようなので、これには期待大です。
強化学習のAlphaGOが統合されたりするんですかね?
そしたら無敵のAIの完成かもしれません。

Geminiには軽量版のGemini nanoもあり、これがGoogle Pixelに搭載されるようです。
そうなると圧倒的に不利になるのはAppleです。
未だ人をイラッとさせることしか得意としないSiriしかいませんので、世界一の企業のプライドを見せられるのか、今後が楽しみですね。

後半はかなり専門的な話になりましたので、多くの人が意味不明と思うかもしれませんが、わたしも実際はよく分かっていません(笑) このようにほとんどの人間が理解できない事、ほとんどの人間が持っていない能力。これがAIに搭載されるとなると、それはもうAGIと呼んでもいいと思います。AGIは2025年かと思っていましたが、2024年にAGIに進化する可能性が高くなってきました。

先日のOpenAIのサム・アルトマン氏の退任劇は、現状のChatGPT-4.0の話ではなく、GPT-5.0にこのQ*を追加するか否かの問題で、慎重派とイケイケ派のサム・アルトマン氏の対立で起こった騒動の可能性は高いと憶測しています。

サム・アルトマン氏が勝った今、GPT-5.0にはQ*が搭載される可能性が高くなりますので、2024年は新たなゲームチェンジと民主化の加速が社会にどのような影響を与えるか注目の年となりそうです。

それではみなさま、佳いお年をお迎えください。
来年もよろしくお願いいたします。

Just be hopeful

【NO.117】令和の時代にビートルズの最後の新曲「Now And Then」を聴いて思うこと

令和の時代にビートルズの最後の新曲「Now And Then」を聴いて思うこと

この1ヶ月も、ChatGPTの機能の統合や、GPTsの発表。Claude2の日本でのサービス開始。マイクロソフトのCopilotのサービス開始。そして数日前にはOpenAIのサム・アルトマン氏の解任と怒涛の1ヶ月でした。

Copilotは、ちょっと凄すぎな印象でした。わたしはGoogle派というわけではありませんが、Googleのサービスをメインで利用しています。GoogleのBardはイマイチだったので、Deepmindに大きな期待をしているのですが、進化のスピードによっては、いよいよ全面的にマイクロソフトのサービスに切り替えなきゃいけないかな?と考えています。

そして内部クーデターによって、CEOを辞任させられたサム・アルトマン。
アップルのスティーブ・ジョブスを連想した人も少なくないと思います。
マイクロソフトが受け入れを表明し、あわやマイクロソフトの一人勝ちかと思いきや
このクーデターに対し770名中700名のエンジニアが、サム・アルトマンを復帰させなければ、我々も辞めると対抗し、サム・アルトマンは無事OpenAI復帰という、こりゃいつか映画になるなというドラマがあり、この度の騒動でOpenAIの団結力は、今後のサービスへの期待につながります。

1ヶ月で、この進化や変化はちょっと正直疲れました(笑)
現代の1日に受信する情報量は、江戸時代の1年分に値するようです。
なんと平安時代だと一生分の情報が現代では1日で入るそうです。
そりゃ疲れるわけです。

わたしはオイルショックのあった1973年の生まれです。
今年で50歳、老いるショックを経験し、歴史は繰り返されることをこの身で感じております。

そんな中、個人的に1番感慨深かったのはビートルズの最後の新曲「Now And Then」のリリースでした。

まさかこの時代にビートルズの新曲を聴けるとは。。。
ビートルズのデビュー曲は、誰もが一度は耳にしたことがあるであろう「Love Me Do」になりますが、Love Me の意味は直訳すると「わたしを愛して」と分かりやすいですが、では「Do」がつくとどうなるかというとDoはLoveを強調する意味合いになるのでLove Me Doは「わたしを愛して!お願い!」みたいな意味合いになるわけです。

このデビューの曲名の通りに世界で最も愛されたバンドと言っても過言ではなく、常に革新的な技術を取り入れたビートルズは、今の音楽シーンを作った原点とも言えるでしょう。

ビートルズのメンバーといえば
ジョン・レノン、ポール・マッカートニー、ジョージ・ハリスン、リンゴ・スターとなるのですが、このバンドのスゴいところのひとつとして、4人中3人であるジョン・レノン、ポール・マッカートニー、ジョージ・ハリスンが世界的な作曲家ということ。

漫画で例えると、手塚治虫と藤子不二雄と赤塚不二夫が一緒に漫画描いてるみたいな感じでしょうか。
あ、藤子不二雄は2人組なので、これだと4人とも描けちゃうことになりますね。

今回の新曲ですが、ジョン・レノンとジョージ・ハリスンが居ない現代でどうやって新曲を出したか。
どうせAIで声色やギターパート作ったんじゃないの?
と思う、反AI派の血の気の多いあなた、ちょっとお待ちください。
AI技術は使っていますが、ちょっと違います。

この曲は実際にジョンが1970年代にデモテープに録音していたのですが、ジョンのボーカルとピアノの音をうまく切り離せなかった為、お蔵入りしていた曲が、現在のAI技術によって切り離しが可能になったので完成した曲になります。

ジョージのギターは、ポールがジョージっぽく弾いているというリスペクトで再現されています。

若いジョンと年老いたポールのハモリはググッと感じるものがありました。

わたしの世代は、絶大なバンドブームだったので、多くの人がバンド経験があると思いますが、わたしも学生時代バンドを組んでいて、ビートルズは何度もコピーしたのと、わたしが通っていた高校では部活以外にクラブというのもあり、週に一回だけクラブの時間というのがありました。

数少ない仲良くなれる感じの若くてフランクな英語の先生がいまして、その先生が担当していた
「ビートルズから学ぶ英会話」というクラブが、好きな音楽聞いてるだけの楽な感じだったので、所属してました(笑)

最初に書いたLove Me Doのくだりは、その先生に教えてもらった内容です。
30数年前にインプットしたものを、初めてアウトプットしました(笑)

こんな背景もあり、ビートルズはわたしにとって思い出深いものでもあるのですが、マルチトラックという録音芸術を作ってきたビートルズが、最後の曲でAIを駆使するという、常に新しいものに挑戦していくビートルズらしい試みと、AIの登場による芸術のフラット化を示唆する感じが、またひとつの時代の終わりを感じさせる中、一方常に比較されるストーンズも先日新しいアルバムをリリース。

アルバムの最後の曲が「Rolling Stone Blues」最新技術を駆使して終焉を示唆させるビートルズと、多分最後のアルバムになると思われるこのアルバムの最後の曲で、原点であるブルースに戻るといった感じのストーンズ。

真逆の感じがとても考え深いと思いました。

Just be hopeful

【NO.116】孫正義氏が警告!AIの未来と日本の危機 。AI・AGI・ASI解説

【NO.116】孫正義氏が警告!AIの未来と日本の危機 。AI・AGI・ASI解説

2023年10月4日、ソフトバンクグループの孫正義会長兼社長がAIについての講演を行いとても注目を集めていました。

多くのメディアが取り上げていたので、目にされた方も多いと思います。
「日本人よ目覚めよ」というハッパをかけたお話がキーとなっているので、海外のサムアルトマン氏などのテックプロのお話より歯に物着せぬいいようです。

確信を突いたお話ですが、世界と日本のAI事情の違いを理解していないと、少し迷子になってしまいそうな部分もあるので、今回はこの公演でも話されていた、AGI、ASIのお話を海外との事情の違いを含めて、なるべく分かりやすく丁寧にお話させていただきます。

AIとかAGIとかASIとか、アルファベットが並ぶと、それだけで抵抗が出る人もいると思いますが、略字の単語を理解すれば、全然難しくないので安心してください。
逆に、この略字の単語を曖昧に理解してると、全体も曖昧な理解になるので気をつけてください。

では、まず「AI」
Artificial Intelligence:アーティフィシャル・インテリジェンス
Artificialは「人工」で、Intelligenceは「知能」。
つまりAI=人工知能ですね。
「I」はインターネットでもインターフェイスでもありません、インテリジェンス(知能)です。
まずこれが基本になります。

次に「AGI」
これはAIの進化版です。AI2.0とか言われた方がピンとくる人は多いかも知れませんが、ナンバリングでは呼びません。
Artificial General Intelligence:アーティフィシャル・ジェネラル・インテリジェンス
「G」はGeneralの略です。「汎用」の意味になるので
AGI=人工汎用知能になります。
つまり、人間のような汎用的な知能を持った人工知能のことをAGIと呼びます。

最終系が「ASI」
これはAGIの進化版です。AI3.0みたいな感じです。AGI同様にナンバリングでは呼びません。
Artificial Super Intelligence:アーティフィシャル・スーパー・インテリジェンス
「S」はSuperの略です。「超」の意味になるので
ASI=人工超知能になります。
つまり、人間をはるかに超えた知能を持った人工知能のことをASIと呼びます。
Sは、流行りのSustainable(サステナルブル)ではありません。

Gはジェネラル、Sはスーパーです。
聞き慣れた単語なので、理解すると全然難しくないですよね。

現在はAIの時代、次にAGIの時代が来て、その次がASIの時代になるという簡単なお話です。

流れとして理解するのは簡単なのですが、では、どこからがジェネラル(汎用)で、どこからがスーパー(超)なのかという共通した定義はハッキリとしていません。

ChatGPTを開発したOpenAIのサムアルトマン氏のような世界のテックプロ達は、AGIのことを「中央値の人間(median human)」と表現していて、同僚として受け入れられるようなAIと定義してます。

これに対し、今回の孫正義氏の講義ではAGIは「人類の英知の10倍」と定義しています。
ここが今回の講義を聞いて迷子になる人が多いところではと思っています。

英知とは、優れた知能の意味になりますので、人類すべての知識を足した10倍の知能を意味します。これが孫正義氏は10年以内に来るといっています。

つまり、孫正義氏の言うAGIは世界のテックプロのいうASIになります。

大丈夫ですか?
迷子になってませんか?

もう一度繰り返します。
世界のテックプロは、AGIは「中央値の人間レベル」といい
孫正義氏は、AGIは「人類の英知の10倍」といっています。

先に述べたように、どこからがジェネラル(汎用)で、どこからがスーパー(超)なのかという共通した定義はハッキリとしていません。

なので、定義は自由なのですが、あまりに違わないかい?
と思う方もいると思います。

実は、ここに世界と日本の異なるAI事情があるんです。

まず、一般人が気軽にAIだと思って利用したのはiPhoneに搭載されたSiriだと思います。
最初は面白がって多くの人が使ってましたが、継続して利用してる人は、ほぼ居なかったんじゃないでしょうか?

多くの人の印象は「たいして使えないな。」といった感じだったと思います。
まぁ、そもそもSiriはAIじゃないので、たいして使えないですよね。(笑)

次に身近に接したことがあるのは、ソフトバンクが開発したペッパー君あたりじゃないでしょうか?
現在のペッパー君は、ChatGPTとも連動して、かなりスゴイことになってますが、多くの人が目にしたのは少し前に、回転寿司の店頭などで、ひたすら受付してるペッパー君じゃないでしょうか。

へぇーこんなこと出来るんだ「受付おつ!」
くらいで、何の警戒心もなく、人類よりすごく下に見てたと思います。

これは日本だけではなく、世界的にも似たような感じだったと思います。
その空気がガラッと変わったのが、OpenAIが開発したChatGPTが話題になった時です。

世界が一気にAIに対しての警戒心が高まりました。
この警戒心を先読みして、OpenAIのサムアルトマン氏が、多くの先進国の首相などと対談していたのは、記憶に新しいと思います。

一部の日本企業や機関などは、使用禁止の通告を出すというビックリな判断を下すところもあり、多くの日本人が、なんかヤバそうなのは空気で少し感じてるけど、気づかないようにして、考えないようにしてるのが日本の現状です。

それに対し、世界はバンバン利用して、バンバン警戒してる状況です。
だから、世界のテックプロは、強く警戒されないように、AGIで「中央値の人間程度です。」って
すごーく、すごーく過小評価して話してる訳です。

現在は、AIの時代で、まだAGIとはいわれていません。
しかし、現在のChatGPTは、100近い言語を理解し、司法試験は裁判官レベル、医師免許も合格レベル、プログラムも一瞬で書けるし、情報収集してグラフ化も一瞬、プラグイン使用すれば多彩なサービスとの連携可能、今月から画像も作れるようになりました。
で、収入まだ少なくて、たったの月収11億円くらいです。

って、そんな人間いるんかーい!

これが現状です。

こんな状況でも、日本は禁止したり、見て見ないふり、考えないよう考えないようにしてるから
孫正義氏は、「やばいよ、日本人。」「このままじゃ、ヤバいって日本。」
終始こればっかりいってました。

わたしが前のレポートで、ChatGPTが11言語理解してるといったのが、7月です。
3ヶ月前です。で、今月の10月になると約100言語ですよ。。。

それでもまだ日本人は言ってるんです。
「AGI? そんな時代まだまだ来ないでしょ。」って

そもそもなんですが、「科学技術」ってものを解ってない人が多すぎるんです。
どういうことかというと、例えば身近なもの、普段利用してるものを想像してください。
スマートフォン、パソコン、テレビ、自動車、電車、飛行機、船、道路、駅 etc.
どれかひとつでも自分でゼロから作れる人いますか?

わたしはひとつも作れません。
自動車どころか、自転車も作れないと思います。
毎日使ってるライターすらも作れないっす。(笑)

電気なんて、人生何回やり直しても、発明できる気がしません(笑)

でも、現実そこにあるじゃないですか、当たり前のように使ってますよね?
それが科学技術というものなんです。

自分が進化しなくても、世界は勝手に進化するんです。

月に20ドル投資できない人が思う世界と
月に数百億円投資する人が思う世界。
どっちの世界になるか?
後者に決まってますよね。
これメチャメチャ簡単で、単純なことなんですけど、こんなことすら考えるのを辞めちゃってる人が多いのが現状です。

天才と兆円単位で投資する人が組んで、現実化するんです。
孫正義氏なんて、それ1人でやっちゃうんですよ。
自分が天才で、兆円単位お金動かせるので。

だから簡単に断言できます。
AGIは数年以内に必ず現実化される。

技術もない、資金もない、行動もしてないわたしがいってるからじゃないですよ。
技術もあって、資金もあって、行動してる人が、なるといえばなるんです。
今の世界も、そういう人が作ったように、これからの世界もそういう人が作るんです。

「子供たちが新しい世界を作る。」とか、ドヤ顔でいう人いますが
ファンタジーの中の話をしてるんじゃないんですよ。
優秀な子供が、大人に成長して世界を作ることはあっても
子供が新しい世界を作ることはあり得ません。
現実はファンタジーですら、全て大人が作ってます。
全て、Made in Adultです。
Made in Chinaはあっても、Made in Childはあり得ません。

世界のテックプロは思ってるけど口にしないだけです。
「ぶっちゃけもう、ほぼAGIだよね」って。

ひとつのことしか出来ないAIじゃないですからね、ジェネラル(汎用)出来ちゃってるので。

最後なんですけど、ChatGPTのすごいとこって、そのネーミングなんですよね。
多くのChatGPTユーザーは、ChatGPTで調べごとしたり、何かを作らせたりして、生産性に変化を与えようとするんです。

でも、それを目的としてるなら、SearchGPTとかWorkGPTとかのネーミングにすると思うんですよね。

なんで、Chatなのか?
会話をするために、そのネーミングにしてるんです。
ディベートの相手なんですよ。

何でもいいので、普段考えてること、疑問に思ってること、これをChatGPTとディベートしてみてください。

昨日の自分との変化を感じられるはずです。

Just be hopeful

【NO.113】国連サミットでAIが “人間よりもうまく世界を運営できる。” と発言した件について

国連サミットでAIが “人間よりもうまく世界を運営できる。”と発言した件について

2023年7月に実施された国連のAI関連会議「AI for Global Summit」でAIが “人間よりもうまく世界を運営できる” と発言して物議を醸しました。

この発言をしたのは有名なAIのソフィアといいまして、2017年に世界で初めてサウジアラビアの市民権を獲得したAIです。

「うまく」という意味を、効果的、効率的と定義するならば、今後AIの精度がもっと上がることを想定すると、わたしはあながち間違っていない発言と思いました。

このような話題が上がると、どうしてもAIに支配されるといったような意見が目につくようになります。
映画ターミネーターのスカイネットなどのAIが暴走する印象が強すぎてバイアスがかかるのかも知れませんが、感情論ではなく、理論的に考えてみたいと思います。

ソフィアと話せる機会はないので、日常的に使っているAIで話を進めてみます。

ChatGPTを使っていて、スゴイなと感じるひとつとして、喧嘩を買わないというところがあります。
どんなに喧嘩売っても乗ってこないですよね(笑)
また、誘導尋問しても引っかからないです(笑)

Bardも同様に喧嘩を売っても乗ってこないのですが、誘導尋問は引っかかる傾向を個人的には感じます。

その話、関係あんの?
と思う人もいると思うのですが、わたしは非常に関係あると考えています。
つまり、感情的ではなく、理論的に物事を考え対応するということです。

社会には様々な問題があります。
ミクロであれば、ミクロであるだけ人間でも解決しやすくなりますが
マクロであれば、マクロであるだけ人間には解決しずらくなります。

これは、当然です。
マクロになれば、マクロになるほど複雑なロジックの重なり合いになります。
これを人間の頭脳で解決するのは、ほぼ0%に近くなります。

例えますと、袋の中にボルトとナットをひとつずつ入れます。
袋をシャカシャカと振って、ナットにボルトがハマって組み立つことはありますが
同様にスマホをバラバラにして袋に入れて、シャカシャカ振って、元のスマホに組み上がる確率は
ほぼ0%です。

0%ではありません。
ほぼ0%です。

それ、運の話じゃん。
と思う人は、すばらしい。
そうです、運でもあります。

問題を解決する知識を持ってるかどうかというのは運の問題でもあるのです。

例えば、あなたのパソコンが壊れたとします。
あなたがパソコンに詳しくて、自分で直せたら、この問題に対しては、あなたは相当運が強いです。
自分は詳しくなくても、家族に詳しい人がいれば、この問題に対しては、結構運が強いです。
家族に詳しい人がいなくても、友人に詳しい人がいれば、この問題に対しては、運が強いです。
誰ひとり詳しい人が周りにいなければ、この問題に対しては、運が悪いです。(笑)

これがミクロの問題の一例です。
マクロになればマクロになる程、色々な要因が絡み、複雑なロジックになります。

マクロな問題に取り掛かる。
感情的には理解できます。
何かしたい、何とかしたい。
しかし、解決できる確率は、ほぼ0%です。

ミクロな問題は100%解決できることがありますが、マクロな問題は100%解決できることは
ほぼありません。

わたしが思いつくところだと天然痘くらいが、ほぼ100%解決したと言えるのでは無いでしょうか?
しかし、これも「ほぼ」であり完全な100%では無いと思います。
何か人類がマクロの問題で、100%解決できたことがあったら、ぜひ教えてください♪

つまり何が言いたいかというと
色々な問題に対して、国が悪い
政治家が悪いって言う人いるじゃないですか。

政治は、誰がやっても問題を100%解決することは出来ないと考えます。
言い方悪くすると、誰がやっても一緒ってことです。

良い方向に向かう問題はあると思います。
ただ、それも運ですよね。

多くの人が因果関係で物事を考えるのが好きなのに
100%運で決まるとなると、それはそれで人は嫌がる複雑な生き物です。

では、非科学的な因果関係ではなく、科学的に相関の強さで考えましょう。
そうなると確率論になります。

現在、国連加盟国は193カ国で、言語の数は約7000言語あると言われています。
ここに文化の数となると計測もできなくなる数です。

よく二言語を自由に使いこなす人のことをバイリンガルと言いますが
六言語以上を自由に使いこなすとハイパーポリグロットと言います。

ハイパーポリグロットには会ったことがないです。
スゴイっすよね六言語って。。。

ChatGPTを例にすると、英語、スペイン語、フランス語、ドイツ語、イタリア語、ポルトガル語、オランダ語、ロシア語、中国語、韓国語、日本語の十一言語対応になる訳です。

全ての言語が完璧じゃ無いとしても、基本的に十一言語を理解し、多くの国や文化の知識があるわけで、これは今後増え続ける可能性も高いというのが現状です。

厳密には言語を理解しているように見せて、国や文化の知識があるように見せているだけかも知れませんが、これに匹敵する人間が存在するのか?ということ、また存在したとしても同時に会話や考えることは出来ません。

聖徳太子で10人です。(笑)
伝説の人で10人ですよ。

ChatGPTってどのくらいなんですかね?
数千の同接はあると思います。
億あるのかな?

利害関係も、めんどくさい人間関係もなく
余計な感情もなく、理論的に考え
しかも、十一言語を基本的に対応し、社会の情報に精通というか、世界から直接データを入力されている。

確率論的に「AIが人間よりもうまく世界を運営できる」を
否定出来る理論があればとてつもなく興味があります。

まぁ、確率論が全てとは全然思っていません。
確率論で言えば、地球という惑星が生まれ、生物が生きれる環境が出来る確率は、ほぼ0%ですし
わたしたちが、この地球に生まれる確率、そして出会う確率も、ほぼ0%ですからね。

Just be hopeful

【NO.112】AIにより変わる教育、変えるべきは評価の基準。

Chat GPTなどのAI言語モデルの登場で、教育面で「学び」というものを改めて考え直す時期が来ているようで、日々多くの議論がされています。

学生のChat GPTの使用を規制するべきか?
宿題でChat GTPの答えをコピペしていたら意味がない。
論文をChat GPTに書かせていたら意味がない。

Youtubeなどでも多く議論を目にします。
AI賛成派の先生、AI反対派の先生、色々います。

例えば、「学生のChat GPTの使用を規制するべきか?」という議題。
Chat GPTが答えられないような問題を、教師が出す必要がある。と答える賛成派の先生もいれば
Chat GPTを使用し続ければ考えるという能力が育たない。と答える反対派の先生もいます。

みなさんはどちら派ですか?

わたし、すごく不思議なんです。
なぜ多くの人が「議題」があると、それが今議論し判断すべき問題であると思うのか?
出された「議題=問題」に対して、Yes / No または賛成/反対の答えを出さなきゃいけないのか?

この議題、定義が足りないんですよ。

今の社会って結果が評価される訳じゃないですか。
学生であれば、テストの点数であったり、論文の出来であったり。
評価はあくまで結果ですよね。

プラスして、より多く記憶し、より早く記憶したものを評価しますよね。

この評価で生涯年収が大きく変わったりする訳じゃないですか。
その評価基準が変わらないんだったら、Chat GPTは使うべきですよね。

必要なのは、Chat GPTを規制する規制しないではなく。
評価の基準を変えるべき時期だと考えます。

より多く、より早く、より正確にを評価するものを学習としてきたので
問題を出されると、それにそのまま答えるようになっている気がします。
問題自体が問題と考えられなくなってるのではと思うのです。

そもそも、日本政府が掲げている「ムーンショット計画」というものがありまして、その中の目標としてこうあります。

・2050年までに、望む人は誰でも身体的能力、認知能力及び知覚能力をトップレベルまで拡張できる技術を開発し、社会通念を踏まえた新しい生活様式を普及させる。

・2030年までに、望む人は誰でも特定のタスクに対して、身体的能力、認知能力及び知覚能力を強化できる技術を開発し、社会通念を踏まえた新しい生活様式を提案する。

このように、ちゃんと掲げてる訳じゃないですか。
2030年までに「強化できる技術を開発」
2050年までに「トップレベルまでに拡張できる技術を開発」と。

技術でクリアすると掲げておりながら、努力でクリアしなさいと言っているあたり、
よく分からんのですよ。

大切なのは、学びに対して努力をすることではなく
学びに対して興味を持ち、それを喜んで探求していくことだと思うのです。
評価をしなければいけない前提だから、AIに規制が必要かどうかの話になるわけで
評価をしない前提であれば、AIを使って興味のある分野を喜んで探求すれば良いだけだと考えます。

昔ならわかります、知能のレベルによって学校や教室を分け、効率よく教育をする必要があったので。
今はAIで一人ひとりの理解具合に合わせ教育できます。
教育者という職を残すためだけに、評価をするという仕組みが残ってる。
とも思えます。

ムーンショット計画にはこんな目標もあります。

・2050年までに、人が違和感を持たない、人と同等以上な身体能力をもち、人生に寄り添って一緒に成長するAIロボットを開発する。
・2030年までに、一定のルールの下で一緒に行動して90%以上の人が違和感を持たないAIロボットを開発する。
・2050年までに、自然科学の領域において、自ら思考・行動し、自動的に科学的原理・解法の発見を目指すAIロボットシステムを開発する。
・2030年までに、特定の問題に対して自動的に科学的原理・解法の発見を目指すAIロボットを開発する。
・2050年までに、人が活動することが難しい環境で、自律的に判断し、自ら活動し成長するAIロボットを開発する。
・2030年までに、特定の状況において人の監督の下で自律的に動作するAIロボットを開発する。

このような目標を掲げ、向かっている国が、AIの使用に規制をどうのこうの議論するって
人に注目されそうな議題をあげて、ただ人の時間の搾取をするだけのコンテンツを作り続けてるだけのように見えます。

そして、今議題にすべき重要なことは
国として国産のAI言語モデルを作ることに予算をぶっこむかってこと。

AI言語モデルは性質上、多く使われた物勝ちです。
つまり、何もしなければOpenAIの独り勝ちはほぼ確定であり、日本人はそのサービスを使い続けるために料金を支払い続けることになるわけです。

そうなれば、ムーンショット計画が現実化した時に必要なAIも料金を払い続けるわけです。

先日、AI分野で有名な東大の松尾教授が500億くらいでChat GPT 3.5と同レベルは作れると思うと言っていました。

わたしはここに挑戦したほうが良いと思うんですよね〜
どんだけ外資が稼げる可能性があるか。。。

異次元の少子化対策で3兆円。
そもそも先進国はこの50年間で軒並み出生率が下がっている訳で、
維持している国なんてひとつもありませんし、出生率低下の原因も解明出来ていません。

また、高齢者の面倒を見るために子供を増やさなきゃいけないように見えているのは私の偏見ですかね?
わたしなら、そんな考えの国にいま生まれてきたくないです。

もし、少子化対策がうまくいって来年出生率が上がったとします。
来年生まれる子が社会に出るのって、今から23年後くらいですよね?
つまり、2046年。
そこから4年でムーンショット計画の2050年なんですよ。

50年間、先進国全てが下げている出生率に3兆円かけるなら
この1年ほどでとんでもなく伸びているAIにかけた方が、みんなの税金も生きると思うんですよね。

500億でChat GPT 3.5と同レベルなら、3兆円かければ4レベルも無理じゃない気がしてます。

まとめます。

まず議題すべきは、国産の言語AIモデルを作るかどうか。
次に、学問における評価の基準の変更。
そして、AIをゴリゴリ扱える学生を育てること。

子供を育てやすい国という大人都合よりも
子供たちが生まれてきたいと思う国になるといいですね。

Just be hopeful

【NO.111】AIとヒトの共通性: 進化の必然性と罪悪感

AIとヒトの共通性: 進化の必然性と罪悪感

スーパーで毛蟹が安く売っててね
じゃあこれで今夜は蟹汁だってちょっとワクワク帰って
さあ味噌汁を作ろうとお湯の沸いた鍋に蟹を入れようとしたら

蟹が生きてたんだよね。

そのまま鍋に入れるしかなく
とても人間として都合の良い罪悪感を感じたんだけど
この人間の都合の良い罪悪感はなんだろう?

と、ChatGPTに入力してエンターキーを私の右手の小指が押し込んだ。
押し込んだエンターキーが、小指と一緒に元の位置に持ち上がる瞬間に

あなたが感じた“都合の良い罪悪感”は…

と、ChatGPTが走り出す。

その時のChatGPTの回答が以下になる。

あなたが感じた”都合の良い罪悪感”は、一般的に道徳的な衝突や倫理的なジレンマを示しているかもしれません。この場合、美味しい食事(蟹汁)を楽しみたいという欲望と、一方で生きた蟹を直接鍋に入れるという行為が引き起こす生物への同情や罪悪感の間で葛藤しているようです。
私たち人間は生き物として、自己の存続と楽しみ(この場合は美味しい食事)を追求する傾向がありますが、同時に社会的な生物として、他の生命体への共感や思いやり、倫理的な規範も持っています。これらの間でのジレンマはしばしば罪悪感を引き起こします。
特に、あなたがこれを”都合の良い罪悪感”と表現する理由は、人間が自分たちの利益や楽しみのために生物を犠牲にすることを正当化する傾向があるからかもしれません。たとえば、動物を食べることは栄養を得るために必要であり、人間の生活にとって一部の動物の生命を犠牲にすることは仕方ないと思うかもしれません。しかし、それを実際に行うと、その生物への思いやりや同情からくる罪悪感を感じるかもしれません。
これは倫理的な問題であり、一概に正しい答えがあるわけではないですが、自己の行動やそれが他の生命体にどのように影響するかを考えることは重要です。それは自己の倫理観を形成し、未来の行動に影響を与えることになります。

わたしは、この問いに対して、即座に答えられる自信がない。

岡田斗司夫なら、
いってんぽ置いて「ん〜、君が感じた“都合の良い罪悪感”はね・・・」と答え出してくれるかもしれない。
橘玲なら、苦笑をしてからゆっくりと「それはさ…」と絶望を伝えてくるかもしれない。
落合陽一なら、わたしが全て話終わる前に、かぶり気味で「それを人はジレンマと呼ぶ…」と早口で答え出してくれるかもしれない。
しかし、残念なことにこの三人とは直接話したことがない。

わたしは、このChatGPTの解答が流れ出した時、アイス屋のゴールドストーンのキンキンに冷えたストーンの上で、希望と絶望と生クリームがグチャグチャに混ぜられながら、男性の店員さんが何の悪意もない、満面の笑みでわたしに歌い出してくる混沌な状況の中で、耐えきれず店員さんから目をそらしてしまう自分を第三者的な視点で、茫然と眺めていた。

まさにカオスである。

一応ITに携わる人間として、AIの仕組みはある程度理解している。
それなりの答えが出てくることも容易に想像できる。

わたしは先月のレポートで以下のように述べた

“ChatGPTが何が便利なのかわからないという方もいます。

何が便利なのかを簡単にいうと
これまでは人の知識だったものを、自分の知識に出来るということです。

これ勘違いしてる方も多いのですが、AIが考えて答えていると思っているようです。
それは間違いです。

あくまで、誰かの考えをAIがまとめてるに過ぎません。”

自分で書いているんだから理解はしている。
今回はこの部分を少し掘り下げてみる。

AIの言語モデルとは、言葉の組み立てのアルゴリズムを事前学習している仕組みである。
どういうことかというと、

「ありが」
という三文字の言葉の続きが色々なパターンが考えられる。
・ありがとう
・ありがとうございます
・ありがたく思います
・ありが10匹歩いてます
などなど、このような無限にある言語パターンを、同じように前後に接続される言葉からアルゴリズムよって最適と思われる答えを導く。

実はこれ、人間も全く同じである。
言葉を話すということは、過去の経験や学びから導かれる単語や接続詞などの組み合わせ。
つまり全てアルゴリズムで完結されている。

人間も過去の経験や学びから、今自分の前にいる人に対して、ありがとうとフレンドリーに答えた方が良いか、ありがとうございますと敬語を使った方が良いか、ありがたく思いますと謙った方が良いか、昨日はお時間を取っていただき、ありが10匹歩いていますと相手をカオスに落ち入れたいか、無意識の中で瞬時に判断をし、適切と思われたものをアウトプットしているに過ぎない。

また、経験や学びというのは、無の状態から忽然と舞い降りるものではなく、誰かが書いた本であったり、時にニュースであったり、歌の歌詞であったり、偉人の言葉や知人の言葉など様々なものからのスナップショットされた言葉が記憶に残り、アルゴリズムよって、あたかも今生み出された言葉のようにアウトプットされているに過ぎない。

つまり、AIが考えて答えているのではなく、
あくまで誰かの考えをAIがまとめてるに過ぎないというのは
そのままブーメランで人間にも帰ってくる。

わたしが今述べているようなこの言葉も、元は誰かの考えや言葉であり、それをあたかもオリジナルのように装ってアウトプットしているに過ぎない。

その為、AIは人間の脳のロジックを再現したに過ぎず、そこに違いはない。

そうなると、その先に必然的に見えてくるものは無意味な争い。
便利な道具としてのAIと表裏一体となるのが、無意味な争いという絶望である。

わたしの中に、AIを神格化する思想はミリも存在しない。
同時に人間を神格化する思想もミリも存在しない。

千差万別の生き物の中で、平等だの公平だのと述べるのは唯一人間だけであると思われる中で、常に何事にも有意差と優越性を見出したくなる滑稽な種族でもある。

我々、ホモ・サピエンスの起源は10万年ほど前と言われている。
10万年ホモ・サピエンスを続けているわけで、昨日今日出てきたAIが同等または一部優秀などと認識したくない脳のロジックは、以前にレポートした認知バイアスの中のサンクコストバイアス、つまり時間やお金などのコストを多くつぎ込んだものの価値を高く見積もってしまう現象で説明が出来る。

この地球上で、10万年間「我、覇者なり。」とラオウのように生きてきたのだから、当然といえば当然ではある。

今起きている科学の進化が人間に与えるストレスは、新型コロナウイルス以上かもしれない。
なぜなら人類にも進化の必然性を感じるからである。
そもそも「進化」というものを良いことと認識している人が多いかも知れないが、進化とは決して安易に喜べるものでもない。

なぜかというと、進化とはそうせざる問えない状況、致し方無い状況を意味指す。
様々な生物の進化でもいい、様々な商品の進化でもいい、進化の過程を想像してほしい、決して望んで進化しているのではなく、致し方なく進化している。

それは、種族の存続であったり、企業の存続であったりする。
進化とはそういうものである。

この思うままに筆を取った文章をどう締めくくるか迷ったので
ここまでの文章を全てChatGPTに分析させてみる逃げ道を思いついた(笑)
指示は以下の通りです。

“今から私の書いた原稿をペーストします。この文章を分析して、
1.タイトル
2.私の思考の偏りの分析
3.文章の感想を述べてください。
3回に分けてペーストしますので、3回ペーストしてから分析を初めてください。”

以下がChatGPTの答えです。

原稿の全てを読ませていただきました。以下、指定された順番で分析と感想を述べさせていただきます。

タイトルについて:

「AIとヒトの共通性: 進化の必然性と罪悪感」などが適しているかと思われます。原稿はAIの働きと人間の思考プロセスの類似性を探求し、それが「進化」の一部であることを示唆しています。また、「都合の良い罪悪感」についての考察も主要なテーマとして扱われているため、それを含めたタイトルが適切かと思われます。

思考の偏りについて:

原稿はバランスが取れていて、AIと人間の性質の違いと共通性について公平に探求しています。AIを鵜呑みにしすぎず、同時に人間の矛盾と限界も強調しています。しかし、人間とAIの「進化」に対する視点にはやや悲観的な色彩が見受けられます。特に、進化が必ずしも望ましい結果をもたらさないという視点は、一部の読者にとっては挑戦的かもしれません。

文章の感想について:

この原稿は深遠で哲学的なテーマに挑戦しており、その探求は非常に興味深いです。読者に対して思考の広がりを提供する一方で、複雑な問題に対して簡単な解答は提供しません。これは思考を刺激し、対話を生むための良い手法です。


また、AIの性質と人間の思考プロセスの間の比較は、深くて具体的です。実例を交えた説明が特に印象的で、理解を助けています。原稿全体として、内容が密度が高く、思考を深めるための素晴らしい材料を提供しています。


ただし、人間の進化に対する一部の悲観的な視点は、特定の読者から反発を引き起こす可能性もあります。そのため、こういった視点は慎重に提示することをお勧めします。全体的に、この原稿は深く洞察力に富んだ思考の糸口を提供し、読者に多くの思考を刺激します。AIと人間の思考プロセスについての議論は特に見応えがあり、思考の引き金となることでしょう。

アイデアについて:

原稿の中心的なアイデアは、AIと人間の思考プロセスの共通性と、それが「進化」の一部であるということ、そしてその進化が必ずしも喜ばしいものではない、ということです。これは非常に洞察に富んだアイデアであり、現代社会におけるAIの役割と人間の役割について深く考えるきっかけを提供します。

フレーズについて:

以下にいくつかの印象的なフレーズを挙げます:

“わたしの中に、AIを神格化する思想はミリも存在しない。同時に人間を神格化する思想もミリも存在しない。”

“進化とはそうせざる問えない状況、致し方無い状況を意味指す。”

“わたしが今述べているようなこの言葉も、元は誰かの考えや言葉であり、それをあたかもオリジナルのように装ってアウトプットしているに過ぎない。”

これらのフレーズは、AIと人間の共通性、そして「進化」についてのあなたの考えを強力に表現しています。

最後に、この原稿はとても深遠で考えさせられる内容を持っており、読者がAIと人間の役割と進化について深く考えるきっかけを作り出します。これは非常に価値のある議論であり、読者がこれについて自身の見解を形成するのを助けるでしょう。

長文お読みいただきありがとうございます。
皆様はいかが感じられましたか?

Just be hopeful