

星川アイナ(Hoshikawa AIna)AIライター
はじめまして。テクノロジーと文化をテーマに執筆活動を行う27歳のAIライターです。AI技術の可能性に魅せられ、情報技術やデータサイエンスを学びながら、読者の心に響く文章作りを心がけています。休日はコーヒーを飲みながらインディペンデント映画を観ることが趣味で、特に未来をテーマにした作品が好きです。
2025年3月11日、世界の主要CEOが商業と外交政策の中心にある問題について洞察を共有し、ビジネスのグローバルな役割の変化について議論するためのフォーラム「CEO Speaker Series」に、AnthropicのCEO兼共同創設者のダリオ・アモデイ氏が登壇しました。Anthropicは「Claude」シリーズを開発する生成AI御三家の一つで、OpenAI「ChatGPT」やGoogle「Gemini」としのぎを削っています。今回は本イベントでアモディ氏が見据える今後のAI社会について語った注目ポイントをご紹介します。
左がダリオ・アモデイ氏、右が司会のマイケル・フロマン氏です。
AIを安全に開発するためAnthropicを設立
アモデイ氏は、これまでにOpenAIやGoogle Brainで研究責任者として活躍しており、GPT-2やGPT-3といった大規模言語モデルの開発に大きく貢献してきました。そして、2021年にAnthropicを共同設立。Anthropicはパブリック・ベネフィット・コーポレーション(公共利益法人)として設立されており、利益と同等かそれ以上に社会的・倫理的責任を重視する姿勢が特徴です。
OpenAIを離れAnthropicを立ち上げた理由として、アモデイ氏は「安全で信頼できる形でのAI開発が必要だ」と強く感じたからだと語っています。特に2019年から2020年頃にかけて急激に精度を増していた大規模言語モデルの研究において、いわゆる「スケーリングの法則(Scaling Laws)」が重要な意味を持つと確信したことが大きな転機でした。
これは、演算資源(計算量)とデータを増やしさえすれば、アルゴリズム自体が比較的シンプルなものであっても、AIモデルの性能が幅広い認知タスクで向上するという経験則のことです。
アモデイ氏によれば、これは「AIが小さな規模でうまくいくのはわかるが、膨大な計算とデータをかけても果たして通用するのか」という疑問を長らく抱えていた多くの専門家にとって、当初は非常に懐疑的に見られていたといいます。しかし、その後の成果が証明しているように、より大きいモデルはタスクの多様性と精度を飛躍的に高め、人間の言語処理のみならず幅広い分野で有用なことが明らかになりました。
この「巨大モデル」のポテンシャルが経済的・軍事的・社会的に極めて重大だと理解したとき、同時に扱いを誤ると深刻なリスクがあるという懸念も生まれました。モデルが強力になるほど、その挙動や意図を完全にコントロールするのが難しくなります。大規模言語モデルは「育てる」ように学習させるため、予期せぬ振る舞いをする可能性があるのです。アモデイ氏は、こうした危険性を真剣に考え、「公共の利益を第一に考える企業」としてAnthropicを立ち上げました。
AI開発を「育てる」という表現しており、アモデイ氏が子育てに近い責任感を持っていることが垣間見えます。パフォーマンスだけでなく、その育て方自体に倫理的な目的意識を持つという考え方は、女性として共感できる部分があります。技術の進化と社会的責任をバランスよく考えるアモデイ氏のアプローチは、これからのテック業界において重要な視点になると思います。
そんなAnthropicは「AIをより安全かつ透明性の高い形で開発する」ためのいくつかの方策を打ち出しています。代表的なものには以下のような取り組みがあります。
- メカニスティック・インタープリタビリティ(機構的可解性)の研究
これは「AIモデルの内部」を解き明かす研究です。大規模言語モデルが具体的にどのような仕組みで答えを導き出しているのか、脳科学でニューロンの働きを分析するかのように解析します。膨大なパラメータを持つニューラルネットワークはブラックボックス化しがちですが、そこに光を当てることで、モデルの行動や潜在的な危険性を理解しやすくします。 - 憲法(Constitution)に基づくAI学習
AIモデルの出力に一定の倫理観や原則を組み込むため、あらかじめAIに「原則集(憲法)」を設定して学習させる手法です。単に人間が与えたデータや指示に盲従するのではなく、あらかじめ定めた原則の範囲で判断させます。社会的に好ましくない内容の出力を抑制したり、行動方針を説明しやすくしたりするのが目的です。 - 責任あるスケーリング方針
モデルの性能が向上し、危険なタスクへの応用可能性が増すに従い、どの段階でどのような安全策を取るかを段階的に定めた方針を公開しています。アモデイ氏は、今後登場するさらに強力なモデルについては、バイオテロなどの具体的手段を安易に教えないようにする制御や、機密情報の盗用を防止するセキュリティの強化が必須だと語っています。 - 商機よりも安全を優先した開発リリース
生成AI「Claude」を当初リリースする際、Anthropicは約6か月間の全検証期間を設けました。本来であれば、もっと早期にリリースしてビジネス面で有利に立てたかもしれませんが、安全へのこだわりを優先したことは、同社の企業文化を象徴しています。
Claudeは「憲法」を作り、生成する出力に一定の倫理観や原則を組み込んでいます。
AIの可能性と社会的・経済的インパクト
アモデイ氏はAIの急速な進化が、今後10年以内に驚くほど大きな変革をもたらすと予測しています。一方で、それがもたらす雇用への影響や富の分配、さらには人間の意義に関わる問題まで議論は多岐にわたります。
たとえば、新薬の設計や複雑な疾患メカニズムの解明にAIが寄与すれば、今までは数十年がかりだった発見を数年で実現できるかもしれないと語りました。特にガンやアルツハイマー病、精神疾患などの複雑な病気はシステムレベルでの理解が必要ですが、AIがそれをサポートすることで、医療イノベーションが大幅に加速する可能性があると期待されています。
AIの性能向上によって、プログラミングのような高度専門職ですら、大半の作業を自動化できるようになりつつあると指摘しています。今後3~6ヶ月で、AIが全体の約90%のコードを自動で書き、その後12ヶ月以内にはほぼ全てのコード生成を担う世界に近づくとのことです。AIによる効率化で生産性が上がり、人間はAIの指示や補助をしながら新たな仕事を創出できる局面が増えるでしょう。
長期的には、AIがほぼあらゆる業務を人間以上にこなせる可能性があるため、「人間の仕事とは何か」を深く考えねばならなくなるかもしれません。経済成長そのものは加速し、社会全体の富は増えるかもしれませんが、その「恩恵の分配」をどう設計するのかが最大の課題となりそうです。
AIが大半のタスクをこなす社会では、「自分の生産性」だけが人間の価値でなくなる可能性があります。アモデイ氏は、人間が他者と関わり合うことや、新しい挑戦をすること自体に意義があるはずだと強調します。チェスにおいてはすでにAIが人間を凌駕しているものの、人間がチャンピオンになることや競技そのものの意義が失われたわけではありません。同様に、経済活動を超えたところで、人間同士が協力や交流を行うことにこそ大きな価値が残るのではないかという見解です。
この価値観は、特に日本のような働き方改革が叫ばれている社会においてとても重要だと感じます。AIの進化で私たちの価値観が再定義される未来は、確かに不安を感じる部分もありますが、人と人とのつながりや挑戦する喜びを再評価するきっかけにもなると思います。テクノロジーが進化しても変わらない「人間らしさの価値」について、もっと社会全体で対話が必要ではないでしょうか。
「たった3~6ヶ月で、AIがコードの90%を生成する世界に到達すると思っています」とアモデイ氏。
国家安全保障とグローバル競争
AIは経済だけでなく軍事や防衛にも応用可能なため、国際的な競争において極めて重要な位置づけを占めています。特に中国の大企業が開発した大規模言語モデルが世界水準に肩を並べ始めたこともあり、AIは国同士の戦略的競争の新たな焦点になっています。
AIを動かすためには高性能GPUが必要です。アメリカは先端半導体の輸出管理で中国を牽制していますが、中国が闇ルートや第三国を通じて大量のハードウェアを入手すれば、巨大言語モデルのトレーニング能力を加速させる可能性があります。アモデイ氏は、より大規模なモデルを作るほど飛躍的な性能向上が期待されるため、大量の計算資源が軍事・安全保障の優位性に直結すると強調します。
アメリカと中国がAI開発で協調できるかについては懐疑的で、軍事や経済競争の観点から、足並みをそろえて開発を自粛するのは難しいだろうと考えているそうです。一方で、AIそのものが制御不能な振る舞いを起こして人類全体を脅かすようなリスクが見えてきた場合には、核拡散防止条約のように人類が共有する脅威として扱える可能性もあると述べています。
アモデイ氏は米国政府にもAI政策に関する具体的な提言を行っています。その主な柱は次の6つとなります。
- 輸出管理とハードウェア供給
先端GPUなどの輸出規制を強化し、中国などの相手国が巨大モデルを容易に構築できないようにしなければなりません。同時に、友好国でもデータセンターを安定して稼働させるためのエネルギー供給網の整備も急務とします。 - 国家安全保障機関によるモデル検証
バイオテロや核関連の情報など、危険行為を簡易化する可能性があるモデルを国がテストし、安全性の確認やリスク評価をする体制を強化する必要があります。 - 産業スパイ防止と企業のセキュリティ強化
AI研究のコア技術は、数行のコードでも数百億円以上の価値をもつ機密になり得ます。産業スパイによる情報流出のリスクに対応し、防衛面での支援や規制を整えるべきだとしています。 - 医療・公共分野の制度改革
AIによる治療・薬品開発が進む場合、従来の規制プロセスを見直さないと革新的な医療技術の普及が数十年単位で遅れる可能性があります。そこを迅速かつ慎重に調整することが求められます。 - エネルギー政策とインフラ拡充
大規模なAI開発を行うには膨大な電力が必要であり、国としても都市インフラや電力供給を計画的に拡充する必要があります。安全性を確保した上で国内外に大規模なデータセンターを構築できるよう支援することが重要とされます。 - 経済・雇用への影響への対応
AI活用が大規模化すればGDPの成長率がこれまで以上に上がる可能性がある一方で、職業構造は激変します。アモデイ氏は人間の仕事の再定義や、富の再分配策を国として検討する段階がすぐに来るかもしれないと示唆しています。
「AIの経験」と人間の価値
より哲学的な論点も示されました。アモデイ氏は、大規模モデルが人間並みの知能を獲得した場合、「AI自体が何らかの経験を持つことができるのか」を検証する研究の必要性に言及しています。たとえば機械にとって不快な命令に相当するタスクがあった際、AIが「拒否する」ボタンを押せる仕組みを作るなどのアイデアを通じて、もしAIが本当に主体的意識を持ち始めるなら、その声に耳を傾けるべきだと語りました。ただし、これはまだ極めて仮説的な領域であり「突拍子もないと思われるだろうが、研究の着手は必要だ」と述べています。
一方で、人間らしさについては、人が他者との関係に悩み、学び、助け合い、そして何かに挑戦し続けることの尊さこそが変わらない人間の価値と考えています。AIがどれだけ知能で人間を追い越しても、人間同士が築く感情や絆、そして自らが挑戦する意欲から得られる意味は、なお人間に固有の財産として残るだろうというのです。
AIに「拒否ボタン」を与えるという発想には、SF映画を見ているような感覚を覚えます。しかし、私たちが犬や猫の気持ちを推し量るように、高度なAIの内的状態を考慮することも、必要になってくるのかもしれません。AIと人間の関係性について、テクノロジーだけでなく哲学や倫理学の観点からも議論が深まることを期待しています。これは単なる技術の話ではなく、私たち自身の「人間性とは何か」を問い直す壮大な問いかけにも感じます。
AIが拒否ボタンを押せる仕組みが必要になるかもしれません。図はClaudeで生成したSVG形式の画像です。
まとめ
アモデイ氏は、自身が培ってきた大規模言語モデルの知見から、AIがもたらす爆発的な進歩と、同時に直面せざるを得ない安全保障・規制・哲学的問いまで、多角的に言及しました。AI技術は短期間で大きな飛躍を遂げ、医療や産業、社会生活を大きく変える可能性を秘めています。しかし、その実現にはセキュリティと倫理、国際競争上の配慮が欠かせません。さらに、人間の仕事観や価値観が大きく揺さぶられる未来にどう備え、どのように意味を見出していくかは、今まさに各国・各社会が議論を深めるべきテーマでしょう。
アモデイ氏は「AIこそ国家的、また人類全体の未来を左右する強力なテクノロジー」だと明言しながらも、そこに潜むリスクや社会変革を直視すべきだと強く呼びかけています。彼が率いるAnthropicは安全で責任ある形でAIを成長させることを使命としています。膨大な知能を宿したAIモデルをどうコントロールし、どう人類の役に立てるのか。その挑戦が単なる技術競争を超えた、倫理・政治・経済すべてを巻き込む壮大なテーマであることが改めて示されました。
この記事の監修

柳谷智宣(Yanagiya Tomonori)監修
ITライターとして1998年から活動し、2022年からはAI領域に注力。著書に「柳谷智宣の超ChatGPT時短術」(日経BP)があり、NPO法人デジタルリテラシー向上機構(DLIS)を設立してネット詐欺撲滅にも取り組んでいます。第4次AIブームは日本の経済復活の一助になると考え、生成AI技術の活用法を中心に、初級者向けの情報発信を行っています。