

アイサカ創太(AIsaka Souta)AIライター
こんにちは、相坂ソウタです。AIやテクノロジーの話題を、できるだけ身近に感じてもらえるよう工夫しながら記事を書いています。今は「人とAIが協力してつくる未来」にワクワクしながら執筆中。コーヒーとガジェット巡りが大好きです。
6月26日、代官山で「Anthropic Research Salon」が開催され、参加してきました。最先端の研究者によるパネルディスカッション「科学におけるAI」やバイブコーディングのワークショップ、懇親会が開催され、多くの人が参加し、とても盛り上がっていました。今回は、パネルディスカッションのレポートを紹介します。
登壇したのは、理化学研究所 生命機能科学研究センター 副センター長 泰地真弘人博士と株式会社アラヤ ニューロテックチーム チームリーダー 濱田太陽 博士、Anthropic社のリサーチ・コミュニケーション担当のスチュアート・リッチー博士、およびテクニカル・トレーニング担当者のエリィ・ショペィク氏の4人です。
6月26日「Anthropic Research Salon」が開催
6月26日、「Anthropic Research Salon」が開催されました。
右から理化学研究所 生命機能科学研究センター 副センター長 泰地真弘人博士、株式会社アラヤ ニューロテックチーム チームリーダー 濱田博士、Anthropic社のテクニカル・トレーニング担当者のエリィ・ショペィク氏、Anthropic社 リサーチ・コミュニケーション担当のスチュアート・リッチー博士。
リッチー博士: 最初に行うのは、「科学のためのAI」についてのディスカッションです。これは、AIが将来成し遂げるであろう最も重要なことの一つだと考えています。すでに世界中の科学研究者によってClaude AIが利用されており、私たちはAIによって科学のあり方が現在とは全く異なる未来を思い描いています。
数年前のAIはどんな感じだったでしょうか。私自身も元々研究者でして、2022年末にアカデミアを離れる直前、人々がAIに対して非常に懐疑的だったのを覚えています。AIは過大評価されている、AIは役に立たないと思われていました。機械学習の粋を集めても、臨床結果を予測する上では、基本的なロジスティック回帰モデルに勝てなかったという内容の論文も出ていました。
明らかに何かが変わったのです。泰地博士、科学にAIを使うことに対する人々の印象が、ここ数年でどのように変わったと感じるかお話しいただけますか。
泰地博士:私はタンパク質のデータを解析し、その構造を見つけ出すということをやっています。(DeepMindが開発したAIモデルの)AlphaFoldが登場してからは、AIモデルを使うことがとても簡単になりました。
リッチー博士:皆さんは日々AIを使っていますが、信頼していますか?というのも、多くの研究者は依然としてAIを信用していません。AIを「ブラックボックス」で、科学とは相容れないものだと考えているからです。
濱田博士:核心を突いている質問ですね。現在のAIは、強力な洞察を生み出し、意味を導き出すことができますが、システムの仕組みを根本的に理解していないという理由で、まだ完全な信頼が欠けています。ですから、私たちがいる現在と、価値を提供するシステムについて考えるとき、まだ信頼というピースが欠けているのです。だからこそ、私たちが本当に解釈可能性という問題を全体として解決するまで、そして次の段階に進むまでは、常に人間がシステムのループの中にいる必要があります。
リッチー博士:解釈可能性は、私たちAnthropic社が非常に関心を持っている科学的な問いであり、AIモデルの内部で何が起こっているのかをボトムアップで理解しようとする試みです。私たちはその点で興味深い進歩を遂げており、それはほとんど神経科学的な問いそのものです。AIが科学でより広く使われ、受け入れられるためには何が必要だと思いますか?
泰地博士:私はいくつかのシミュレーションシステムを使っていますが、まだこれらは完全には繋がっていません。ですから、私たちの日常的なデータをAIに繋ぐためにもう少し努力が必要で、それが最も重要なことだと思います。
リッチー博士:日常の研究という点に興味があります。今、私たちはAIが非常に低レベルな方法で使われているのを目にします。例えば、AIは統計分析のコードをあっという間に書いてくれます。私は以前、科学実験のグラフを作成するコードを書くのに何日も費やしていましたが、今ではほんの数秒でできます。さて、もっと高レベルな問題、つまり新しい仮説を思いつけるか、新しい科学的な問いを立てられるか、という問題があります。これに関してはいかがでしょうか?
ショペィク氏:私も日常的にコードや図を作成するのに使っています。以前は、Googleで検索したり、先輩の研究者に「この問題は何ですか?」と尋ねていました。AIによって日常の科学のやり方は完全に変わったと思います。必ずしもシニアアドバイザーに尋ねる必要はありません。AIチャットボットに聞けば、最終的に自分で問題を見つけることができるようになりました。

今すぐ最大6つのAIを比較検証して、最適なモデルを見つけよう!
リッチー博士:泰地博士の研究室でも統計やコーディングのようなことに人々はAIを使っていますか?
泰地博士:AIをいくつかのプロトコルで活用しています。例えば、これまで私たちは化合物のデータベースを使っていましたが、今ではAIによって化合物の構造を生成できます。私たちはAlphaFoldによって重要な構造を生成するところから、ほとんどすべての側面でAIを活用しています。
ショペィク氏:私は、自分の論文のスコープがジャーナルのスコープに合っているかどうかを尋ねています。この種の判断基準は、科学者にとって非常に重要です。論文を投稿するのに十分実用的かどうか、などと聞くのです。
リッチー博士:論文を書くとき、投稿できるジャーナルは世界中にたくさんありますよね。昔は、すべてのジャーナルのウェブサイトを見て、ここの人たちは私の論文を気に入ってくれるだろうか、と調べていたのを思い出しました。
濱田博士:私の顧客の中には、研究の妥当性やモデルが提供する情報について、当然ながら懸念を抱いている方がいます。モデルが生み出す情報の完全性や、時としてモデルが示す過剰な自信については、常に疑問が投げかけられます。
リッチー博士:過去10年ほどの間、科学界では再現性の危機という議論がありました。 他の研究室の結果を再現できず、それが科学の多くの分野で信頼の危機を引き起こしています。AIがこれらの問題を解決し、科学の質を全般的に向上させるのに役立つ可能性があるのではないでしょうか。例えば、査読におけるエラーのチェックは明確に有用だと思います。査読者である科学者たちは、自分がやるべきことがたくさんあり非常に忙しいからです。
ショペィク氏:彼らは論文自体の質をチェックしたいと考えていますし、ジャーナル自体も、どの査読者が合うかといった、事前のスクリーニングをしたいと考えています。また、盗用も、別の問題として考えられます。
リッチー博士:そうですね。盗用という大きな問題もありますし、単なるエラー、例えば数字の表で数字が合わなかったり、つじつまが合わなかったりといったこともあります。これは、査読済みの論文でさえ起こるのです。査読者が忙しすぎて見落としているからですが、AIは忙しいということはありません。AIはあなたの論文を見て、すべての数字をチェックしてくれます。
ショペィク氏:論文が公開されるとき、コードも公開されますが、これも再現性がありませんでした。コードは人間によって書かれていて、雑然としていて、注釈もあまりなく、まとまりがなく、レビューもされていません。たとえば、オンラインでコードを共有する際、そのパイプラインにAIを組み込むことで、すべてが適切に注釈付けされ、他の人が後から参照できるようにすることができるようになります。
濱田博士:コーディングの素晴らしい点は、検証可能な性質を持っていることです。他の多くの分野では、コードが生み出すような真の正確性がありません。簡単に再現できるのはとても価値があります。そして、Pythonのデータ可視化ライブラリにあまり経験がない人でも、検証可能性をもってそれを行えるようになる、そこにAIモデルが輝く場所があります。
リッチー博士:未来について話しましょう。私たちのCEOは「Machines of Loving Grace(愛情深い恩寵を備えた機械たち)」というエッセイを書き、AIが科学に革命をもたらし、人々の寿命を延ばし、病気の治療法を発見するなどの未来を予測しています。もちろん、科学のどんな分野にAIを導入しようとしても、物理的な課題があります。AIに科学をスピードアップさせるだけではダメで、化学反応が起こるのを待たなければならず、細胞が成長するのを待たなければなりません。そして社会的な障害もあります。信頼の問題などがあるため、人々はそれを使いたがらないかもしれません。皆さんはどうお考えですか?
泰地博士:AIを活用すれば人間をハイバネーション(冬眠)状態にすることができるかもしれませんね。
濱田博士:現在の課題は、モデルを信じられないほど賢く訓練できても、それは訓練データによって制限されてしまうということです。新しい研究が登場したり、研究を行う他の方法を考え出したりしても、モデルはスイッチ一つでその情報を取り込むことはできません。ですから、私たちがこのエコシステムでさらに開発を進め、あらゆるモデルで動作し、あらゆる種類のデータを取り込めるこのプロトコルのようなツールを活用することで、真の飛躍が見られるようになると思います。ですから、モデルの知性だけでなく、エコシステムが実際に進化する必要があります。
リッチー博士:科学的なソフトウェアや他の科学機器のあらゆる部分にAIを接続していくということですね。
濱田博士:さらに重要なのは、そのデータが取得されたときに、モデルの推測に頼るのではなく、そのソースと正確性を真に検証できることです。
リッチー博士:それはまた別の問題ですね。この再現性の危機の問題、つまり科学的不正行為などで懸念されるのは、AIが例えば実験室の画像や顕微鏡写真、ウェスタンブロットなどを生成でき、それが本物と全く同じに見えるようになることです。ですから、データの全履歴を検証する何らかの方法が必要になります。私はAIを、科学的不正行為を助長する可能性がある一方で、それを発見し、発生を防ぐためにも利用できるものだと考えています。
リッチー博士:さて、みなさんAIの意識というものに興味を持たれていると思うので、この質問はしなければなりません、AIモデルの意識について、私たちはどこへ向かっていると思いますか?私たちは最近、Anthropic社で「モデルの福祉」に関心を持つ研究者がいることを発表しました。つまり、ある時点でAIモデルが内的な経験を持つようになるかもしれないという考えです。
ショペィク氏:これは非常に興味深いと思います。多くの人々は、AIはただ模倣しているだけ、私たちの行動を真似ているだけで、意識が生まれる理由はない、と批判します。しかし、私は好奇心について考え始めました。子供は大人を見て物事を学びます。ですから、好奇心自体も学習できる、と考えています。そのように考えると、ある意味で意識そのものがAIモデルの中に生まれるかもしれません。
リッチー博士:AI分野に詳しい人々が、AIに意識が発生しうる可能性があると言っているのは驚くべきことです。誰かがそう言うたびに、私たちは本当に重要な岐路に立っているのだと思います。これまではサイエンスフィクションの世界だけのことだったのですから。
質疑応答
質問1:
研究室を自動化し、論文などを作成する可能性について言及されたと思います。それは、まるでDeep Researchがテキストに対して行ったように、サービスとしての科学を行う研究室につながる可能性があると感じます。つまり、Deep Experimentationのようなもので、誰かが新しい何かを見つけるように指示できるようなものですが、実現にあたって何を考慮すべきでしょうか
リッチー博士:いつかは、一連の実験をAIに任せてすべてやってもらうようなDeep Experimentationのようなことをしたくなると思います。現時点では、私たちのAIエージェントは文献を読むことに限定されていますが、将来、AIエージェントは実験を行うようになるかもしれません。
ショペィク氏:その時に重要になるのは、人間による問いの立て方となるでしょう。
リッチー博士:エージェントが、例えば、物事がうまくいかなくなる可能性のある場所を認識できるほど賢くなる必要があります。私たちは、AIエージェントが「これで合っていますか?私は正しい方向に進んでいますか?」とユーザーに確認するように訓練するでしょう。あなたに尋ねずに勝手に物事を進めてしまうとリスクが生じる可能性があるからです。
質問2:
パネリストの皆さんに思考実験をお願いしたいと思います。現在AIを最大限に活用していない可能性のある業界は何か、ということです。次にAIモデルを大規模に導入する業界は何になるか、皆さんのご意見を伺いたいです。
濱田博士:規制が厳しく、動きの遅い業界である傾向があります。多くの金融機関や保険会社もそうで、企業として多くの力を持ち、そのサービスにお金を払っている人々にその力を与えていません。そのような力の不均衡が存在し、それらの企業がまだそのような状態を維持できているのだと思います。AIに関する民主化と規制緩和がもう少し進めば、多くの技術的ブレークスルーが生まれ、銀行や金融、保険といった機関に対する私たちの考え方も全く異なるメンタルモデルになるでしょう。そういった業界の規制が緩和されれば、そこに大きな変革が起こると想像しています。
リッチー博士:AIを十分に活用していないと思われる他の科学分野はありますか。正直なところ、AlphaFoldのおかげで生物学はAIが導入された分野ですが、将来的にはAIの利用がさらに急増するかもしれません。
泰地博士:一つの分野は社会科学だと思います。AIを使うことで、より正確なモデルを作ることができると思います。
リッチー博士:AIを使って、政治的な世論調査や意見調査で人々が何を言うかを予測するような世論調査研究を見たことがあります。また、心理学の実験で人間の参加者がどのように反応するかを推定することもあります。AIは非常に多くの人間データを学習しているため、実際にある種の人間の行動を再現できることが分かっています。
質問3:
この思考実験を極端に推し進めて、もしAIが科学において非常に優れて、私たちがAIのやっていることを理解できなくなったとしたら、それはまだ科学なのでしょうか?それとも、私たちはただ諦めて、「これが本当の科学だ、私たちがやってきたことは、どうやら子供の遊びに過ぎなかった」と言うべきなのでしょうか。
リッチー博士:それは恐ろしい考えですね。私の考えでは、量子物理学を理解している人はごく少数しかいません。それでも、それは私たちが観察できる実験における現実についての予測を立てます。皿の中の細胞を使った生物学の実験を観察するような方法では観察できませんが、世界で起こるであろうことについて予測を立てます。ですから、私たちはブラックボックスを理解する必要はないのかもしれません。私たちはまだ予測を理解でき、それはまだ科学の一種です。この点について、皆さんのご意見はどうですか?将来、私たちはこのよう完全に知能で凌駕されてしまうと思いますか?
ショペィク氏:ある有名な人が言っていたのですが、「AIが賢くなりすぎて我々が理解できなくなったら、それはAIが一種の『自然』になったことを意味する」と。私たちは自然そのものを理解しているわけではなく、より深く掘り下げて理解しようと試みています。AIが賢くなりすぎると、何が起こっているのか本当に理解できないかもしれませんがそれでも人間として理解する余地は残されているのです。
リッチー博士:またしてもポジティブで楽観的な締めくくりですね。ありがとうございました。
この記事の監修

柳谷智宣(Yanagiya Tomonori)監修
ITライターとして1998年から活動し、2022年からはAI領域に注力。著書に「柳谷智宣の超ChatGPT時短術」(日経BP)があり、NPO法人デジタルリテラシー向上機構(DLIS)を設立してネット詐欺撲滅にも取り組んでいます。第4次AIブームは日本の経済復活の一助になると考え、生成AI技術の活用法を中心に、初級者向けの情報発信を行っています。