著:丸山隆一(一般社団法人AIアライメントネットワーク)
2024年3月7日(木)、松尾・岩澤研究室と日本ディープラーニング協会(JDLA)が主催する「Yoshua Bengio氏来日特別講演会」が東京大学本郷キャンパスで行われた。ディープラーニングの立役者の一人であるYoshua Bengio教授は、近年の大規模言語モデルに代表されるAIの急速な発展により重要性が増すAIセーフティ(AIの安全性)の問題に取り組んでいる。東京大学学生とJDLAが実施するG検定・E資格の合格者(CDLE)を特別に招待し、ホールを満員にした200人の聴衆と、1000人のオンライン視聴者が耳を傾ける中、本講演会では、AIセーフティの重要性と自身の数理的アプローチについてのBengio教授の講演のあと、東京大学の松尾豊氏と江間有沙氏を交えたディスカッション、ならびに質疑応答が行われた。
前編では、Bengio先生の講演と質疑応答をレポートします。(前編はこちら)
後編では、松尾先生、江間先生を交えたトークセッションの模様をレポートします。(本記事)
江間有沙氏、松尾豊氏を交えたセッション
江間:Bengio先生、非常に印象的で示唆に富む、現在のAIガバナンスとAIセーフティの問題に関する講演をありがとうございました。皆さん、こんにちは、江間有沙と申します。東京大学の准教授で、主にAIガバナンスの問題を専門としています。
先生が前半で議論されたことの最初の部分について、質問させてください。深層学習の専門家がこのAIセーフティ、ガバナンス、政策問題、社会問題の議論にも熱心に取り組まれていることに大変感銘を受けました。今日は多くの学生さんが来ていて、おそらくほとんどの方は技術系の方と思いますが、社会科学者のような方も来てくれることを願っています。工学系の学生や、実際にAIの技術的問題に取り組んでいる企業の方に向けて、公平性、プライバシー、安全性などの社会問題と技術の問題をつなぐことの重要性についてメッセージをいただけませんか?
Bengio:今日の計算機科学は、1930~40年代の物理学に少し似ていると思います。日本の皆さんは、科学が破滅的な使われ方をしたときの恐ろしさを知っています。当時は、物理学を専攻した多くの人々が、自分たちの仕事の社会的影響について真剣に考え始めなければなりませんでした。今、ここ数年、計算機科学でも同じことが起こっています。コンピュータは世界を変え、AIはよい方向にも悪い方向にも世界を変えているからです。ですから、大学でもエンジニアリングや計算機科学の学生に、社会科学、倫理学、政治の概念を教え、自分の仕事がポジティブにもネガティブにも影響を与える可能性があることを認識させ、よりよい方向へ社会を推し進めるような仕事やプロジェクトを選ぶように動機づけることが不可欠だと考えています。
江間:ありがとうございます。私個人としては、異なる分野で一緒に仕事をするのは簡単なことではないと思いますが、この議論を主導してくださっていることを本当に感謝します。
Bengio:私の研究所Milaには、機械学習を専攻する大学院生が約1200人いますが、彼らに社会科学、社会的影響、倫理、責任あるAIについて学んでもらおうとしています。講演者を招いたり、ワークショップを開催したりして、意識を高め、議論を促すように努めています。効果は出ていますが、普段のプログラミングや数学から離れて、これらの問題に目を向けさせることは大変です。
江間:私と松尾先生とで、東京大学の学生たちに向けてそれに取り組めるかもしれません。
松尾:先生がAIセーフティを真剣に考えるようになったきっかけは何だったのでしょうか?
Bengio:ChatGPTですね!ただし以前からAIの社会的な影響を心配してはいました。2014年にGoogleがDeepMindを買収し、私の友人であるYann LeCunがフェイスブックに雇われたとき、AIが倫理的に問題のある方法で広告に使われるのではないかと心配になりました。人々に影響を与えるような広告に使われるのではと。そこで、社会科学者や哲学者などと話し合いを始め、これが2017年の「人工知能の責任ある開発に関するモントリオール宣言」につながりました。その頃、世界中でAIの危険性について心配する人が出てきて、世界的な議論になりました。
松尾:なるほど、長らく安全について考えていたのですね。しかし、ChatGPTはあなたの予想を超えていた?
Bengio:ええ、そうでした。ChatGPTで実現した言語習得は、20年後くらいだろうと思っていたのです。当時は「悪用される心配をするのはまだ先だから、今はAIでよいことをたくさんしよう」と考えていたため、危険性については少し盲目になっていたと思います。しかし、去年ChatGPTを数ヶ月使ってみて、考えを完全に改めました。
事前質問に対する回答
事前質問者1:GFlowNetがAGIを達成するために克服しなければならない課題は何ですか?また、それらの課題を解決する現在の見通しはどのようなものですか?
Bengio:主にスケーリングの問題です。これについては、大学にはスーパーコンピュータ(など十分な計算資源)がなくても、アルゴリズムの改善についても検討できるはずですし、検討すべきだと思っています。例えば、GFlowNetは他の強化学習手法と同様に、理論を生成するための軌跡のステップ数が非常に多く、数百を超えるような場合があるため、訓練が難しくなります。強化学習ではこれを信用割当問題(credit assignment problem)と呼び、質問に対する回答やデータを説明する理論を構築する際の各ステップに、より直接的な訓練信号を与えるための方法を見つける必要があります。しかし、まだ解明されていないことが色々とあります。
事前質問者2:Yann LeCun博士のI-JEPA(Image-based Joint-Embedding Predictive Architecture)という考え方についてどう思われますか。GFlowNetとの共通点や相違点はありますか?
Bengio:Yannが提案しているのは、現代のディープラーニングで標準的な手法である微分計算によって、方策(policy)を学習する方法です。私にはそれがうまくいくとは思えません。なぜなら世の中は不確実すぎるからです。これに対処するには、不確実性を明示的にモデル化するしかないと思います。つまり、私たちのモデルは、始終決定論的な一連の変換ではなく、確率論的なモデルなのです。ランダム性を使ってシミュレーションすべきものであり、異なる方法で訓練する必要があります。通常の教師あり学習を適用することはできません。従来の教師あり学習では、目的関数すら計算できないからです。GFlowNetは、いくつかの数学的なトリックを使用してこの問題を回避しようとしています。勾配に関するシグナルを得て、必要な条件付き確率を推定できるようにしているのです。
事前質問者3:いわゆる計算論的神経科学の分野、たとえば自由エネルギー原理のような理論についてどう思われますか?今日の講演で言及されたベイジアンエージェントとも似ていると思います。ベイジアンエージェントはAIの未来に影響を与えるのでしょうか?
Bengio:私はこれまで、計算機科学と神経科学や認知科学とのシナジーを重要視してきました。そもそも私がAIの世界に入ったのは、人間の知能を理解することに興味があったからで、1985年に大学院生だった私が取り組んだAIは、脳にインスパイアされたもので、当時はコネクショニストと呼ばれていました。今でも、脳についてわかっていることの中に、より優れたAIシステムやより安全なAIシステムの構築に役立つヒントがたくさんあると考えています。脳が、知覚した内容を説明するために変分ベイズ推論を行っているという解釈は、神経科学で広まっており、こうしたアイディアは私にとってもインスパイアを与えてくれるものです。
一方で、自由エネルギー原理ですが、伝統的な変分法は単一の説明に焦点を当てる傾向があり、そこで提案されている方法はスケールしません。これはモード探索問題(mode seeking problem)[モード崩壊]と呼ばれています。より有能なAI、あるいは安全なAIを作りたいのであれば、すべてのよい説明を受け入れることが必要です。先ほどのロボットの例の2つの仮説のうち正しいほうを捨ててしまったら、安全性に問題が生じるでしょう。従来の変分法に似たものでありながら、モード探索のふるまいをしない手法を作るというのが、GFlowNetのモチベーションの1つです。昨年の国際会議で、GFlowNetと変分推論に関する論文を書きました。
事前質問者4:AI技術の急速な進歩にディープラーニングの理論研究が追いついていない現状があります。このような基礎研究は今後どのような価値をもたらすとお考えですか?
Bengio:いい質問ですね。実証研究と理論のギャップは今に始まったことではありません。理論がなくても、私たちはアルゴリズムを試して、うまくいくものを見つけています。
ただし、理論はかなり進歩しました。ニューラルネットについては、私が大学院で勉強し始めた頃よりもずっとよく理解できるようになっています。しかし、あなたの言うとおり、まだ多くが欠けています。特に理論的やその背後にある数学は、安全性を考慮する上で特に重要だと思います。私の発表では、ある種の確率論的な保証を得る方法を説明しようとしました。これは、何の保証も得られない通常の純粋に工学的な機械学習のアプローチとはまったく異なる考え方です。システムを評価し、よりうまくいくものを選ぶことはできます。しかし、システムの動作の範囲を定めたり、保証を与えたりするにはまったく異なる考え方が必要です。そこでは理論指向の人々がとても重要な役割を果たすでしょう。
付け加えると、私は最近、こうした研究のための資金を得ることができたので、実際に研究者を探しています。大学院生ではなく、すでに博士号を持っている人、あるいは近いうちに博士号を取得する見込みのある人で、これらのプロジェクトに取り組んでくれる人を探しています。重要なのは、私がこれまで話してきたような能力、つまり、確率論的な機械学習、数学の素養、これらのアルゴリズムを効率的に実装するスキルです。興味のある方はメールでご連絡ください。
司会:皆さん、聞きましたか?グローバルに人材募集しているんですね。
事前質問者5:先生はベイズ主義者(Bayesian)だと思いますが、長い間、ベイズ主義と頻出主義の論争がありました。AIの未来はベイズ主義になると思いますか?また、それに関して、近い将来に焦点を当てるべき研究分野や指針をお聞かせください。
Bengio:私は、30~40年前に大学院生だった頃からずっと、ベイズ的な考え方は合理的だが、実践的ではないと考えていました。なぜなら、ベイズ事後確率を求める計算が実行できないからです。最近まで、これらのベイズ的な量を近似する方法は、ガウシアンのようなパラメトリックな仮定や、線形的な仮定など、非常に強い仮定が必要でした。いくつかの特殊なケースでは積分を計算する方法が解析的に知られていて、ベイズ的手法はそうした特殊な状況で使われてきました。現実の世界はそれよりもはるかに複雑で、そのような特殊なケースは興味深いものではありません。
しかし、私は考え方を変えました。今日取り上げたような、ベイズ事後確率を近似できるニューラルネットに取り組み始めたためです。近年の大規模なニューラルネットの進歩を、非常に豊かで表現力豊かなベイズ事後確率の学習に転用できるのです。これが第一のポイントです。
また、最近、AIセーフティに対する関心が高まり、安全を確立するためには、ベイズ推論と呼ばれる確率論の問題に取り組む必要があると気づきました。安全に行動するためには、起こりうるあらゆる悪い事態を把握しておく必要があります。しかし、通常の機械学習はそうではありません。1つの説明で満足してしまい、間違った説明を採用してしまうと、深刻な問題を引き起こす可能性が非常に高いのです。これが将来の解決法になるかはわかりませんが、今のところ、安全問題を解決する唯一の道筋のように思えます。
ただし、もっとよい方法もあるかもしれません。機械学習を使いつつも、特定のAIシステムが悪さをしないことを「証明」するアプローチが考えられます。Stuart Russell氏のような非常に真面目な研究者が取り組んでいますが、そのような証明がそもそも存在するのかどうかも定かではありません。彼らの成功を願っていますが、この方向に解決策があるかどうか確信を持てません。もしうまくいくなら、私の方法よりも優れています。私の方法は確率的な限界値しか得られませんが、彼らのように確実な保証が得られれば理想的です。
いずれにしても、AIセーフティ問題は非常に重要なので、様々な解決策を試みるべきでしょう。何がうまくいくのかわからないことを謙虚に認め、多くの方法を模索する必要があります。私の方法が唯一だと言い切ることはできませんが、今のところはこの方法しか見当たりません。
事前質問者6:汎用人工知能を実現するためには、研究者が解決すべき多くの課題があります。現在、最も重要と思われる課題は何ですか?
Bengio:過去7、8年ほど、現在の深層学習が「システム2」の能力に弱みを持つように思われる点に着目して、研究を進めてきました。システム2の能力は、脳における高次認知や意識的な処理と関連しています。具体的には、推論(reasoning)のようなものが含まれます。推論とは、多くの小さな知識を論理的に結びつけ、問題の解決策を見つけたり、計画を立てたり、何かが正しいことを検証したりする能力です。ChatGPTを少し遊んでみると、推論が得意でないことがわかると思います。10歳の子でもしないような推論ミスを犯します。ですから、推論は多くのAI研究者が現在、こうしたシステムの大きな限界であると理解しています。
しかし、問題はもっと広範囲にわたります。システム2と呼ばれる高次認知能力には、認識的謙虚(epistemic humility)も含まれます。認識的謙虚とは、先ほどベイズ事後確率について議論したことと同じで、簡単に言えば、真偽に対する感覚、つまり特定の主張がどれだけ真実であるかを信頼できるかの度合いです。LLM(大規模言語モデル)では、いわゆる幻覚(hallucination)が生じます。LLMは真偽の概念を持っていないからです。データを実際に説明する概念を持っておらず、ただデータを模倣したり、見たテキストに似たものを作っているだけで、何が実際に起こっているのかを説明することができないのです。
少し例を挙げてみましょう。もしChatGPTの訓練データの中に、真実ではない、たとえばファンタジーの文章があるとしましょう。ChatGPTは、そのような文章と実際に真実である文章との区別をしません。どちらも英語としては確率が高く、気にする必要がないからです。しかし、私たち人間はファンタジーと現実の違いを区別できます。完全にはできなくても、少なくとも区別しようと努力します。人によって差はありますが、人間は明らかにこの能力に優れています。これは、複数の説明の可能性を検討し、それぞれの説明の確率を推定できる能力と関係しています。SF小説のような文章を見れば、これは現実の話ではなく、誰かが書いたもので、読者を喜ばせたり物語を作ったりすることが目的だったのだと理解できます。物語は現実と同じではありません。以上は、認知科学でよく研究されている、現在のAIに欠けている高次認知能力の例です。
高次認知能力に関連する第3のポイントとして、非常に少ない事例から新しい状況に適応できる能力が挙げられます。この能力に関しては、AIもインコンテキスト学習でかなり向上してきてはいますが、人間の場合、注意(attention)を払わなければ失敗する状況でも、注意を払うと、高次認知能力を使って、最近の観察結果と整合するように状況や物事のしくみを理解することができます。これを迅速かつ効率的に行う能力は、機械学習、そして機械学習の信頼性にとっても非常に重要です。
松尾:私はシステム1とシステム2の相互作用が非常に重要だと思います。また意識の問題も大きな謎です。一方で、もっと基本的なレベルでも、今日の深層学習には克服すべき課題がまだまだ多くあります。例えば、時系列データや行動の扱いなどです。そうした多くの課題がまだ残っているというのが私の考えです。
Bengio:因果性を忘れていました。人間は世界を因果性で理解するのが得意です。実際、因果関係のないところにもそれを見出してしまうほどです。過剰に一般化してしまうのです。珍しいものを見ると、目にしたものの原因は何だろうかと説明しようとするのです。
ここ7年間、私は最新の機械学習を使ってデータを説明する因果構造を発見する方法を研究してきました。因果関係にはよく知られた理論的性質があります。それは、一般的に、たとえ無限のデータがあっても、データを説明する真の因果構造については曖昧さが残るということです。これは機械学習における誤った認識につながる可能性があるため重要です。多くの人が、データ量が無限に近づくにつれて、最尤法によるアプローチが正しい答えに収束すると勘違いしています。しかし、それはすべてのデータが1つの分布から得られる古典的な統計学的IID(独立同分布)の設定でのみ成り立ちます。現実世界では、エージェントがいて世界を変え、分布を変えます。これが、我々が分布外(out of distribution)と呼ぶ状況であり、古典的なIIDの学習理論はうまくいきません。しかし、因果関係に基づく理解にアプローチできれば、この問題を回避することができます。人間の認知から多くの示唆を得ることができます。人間はどのように世界の因果関係を理解しているのか、これは私自身の研究にとって非常に重要なテーマです。
質問者7:AIセーフティに関する質問です。AI研究者、企業、そしてユーザーは、経済生産性を向上させるためにAIを開発・応用する大きなインセンティブを持っています。一方で、AIの安全性には十分な投資がなされないかもしれません。企業にとって、安全対策は開発リソースを奪ったり、実稼働環境での能力を制限してしまうおそれがあるからです。当事者たちは、自分たちが考えついていないような潜在的なミスアライメントを緩和することにあまり関心がなかったり、効果的に対処できないこともあるでしょう。このようなステークホルダーに対して、AIセーフティをより重視させるには、どのように啓蒙活動を行えばよいでしょうか?
Bengio:これは非常によい質問です。一方、AIに限らない経済学における一般的問題でもあり、だからこそ政府が存在するのです。利益を最大化すればよいという方向と、社会にとって望ましい方向との間には、ほとんどの場合乖離が生じます。ずれが小さければ問題ありませんが、大きすぎる場合は政府が介入し、何らかの制約やルール、インセンティブを設けて、この2つの矢印を互いに近づけなければならないのです。つまり、企業が公共の利益を守るような行動をとらせるために、政府はルールやインセンティブを設ける必要があります。
AIセーフティの場合、私が政府に提案していることの1つは、企業に対してAIセーフティに関する研究を奨励することです。具体的には、「AI製品の安全性を十分に確保していると納得させてもらえなければ、ライセンスなどの承認は下りません」と言うのです。「十分に安全」が明確に定義されていませんが、企業は製品を確実に販売できるようにしたいと思うので、最大限の努力をするようになるでしょう。これは、例えば製薬会社で行われていることと同じです。実際、製薬会社は薬の発見よりも安全性に多額の費用をかけています。AIセーフティとAI企業に関しても同様のことが必要でしょう。ある意味、企業にとっても好ましいことなのです。なぜなら、もしAIによる重大な事故が発生すれば、社会全体からAIが完全に拒絶される可能性があるからです。そうした反動はビジネスにとって非常に不利になりえます。もし明確なルールがなければ、倫理的な企業はそうでない企業に比べて余計なコストがかかってしまうでしょう。手抜きをする企業が市場を制覇し、倫理的な企業を凌駕してしまうのです。ですから、競争条件を公平にし、すべての企業が同じルールに従うようにする必要があります。
AIセーフティにおける問題は、そうしたルールが具体的にどうあるべきかがまだはっきりわかっていないことです。しかし、原則に基づいた法律を作ることで回避策はあると思います。危害が生じない対策をし、ドキュメント化し、安全であることを実証できるようにしなければならないのです。そして、他の分野で使われている「ベスト・イン・クラス」というアプローチを使うこともできます。多くの企業がそれぞれ政府に「我々が行っていることはこれです」と「我々のアプローチが安全である理由はこちらです」と報告し、政府の報告書の中からベストプラクティスを見つけ、「来年度は彼らのやっていることを最低基準にする」と言うのです。そうすれば、すべての企業が少なくとも最良の企業と同じレベルまで引き上げられるでしょう。
江間:加えて私が思うのは、法的枠組みだけでなく、より規制枠組みについての共通認識を持つこと、またイノベーションとのトレードオフについても考える必要性です。質問した方はビッグテック企業の対策を想定していたと思いますが、リソースに乏しいスタートアップにとっては、参入障壁になってしまう可能性があります。
その意味で、誰が責任を負うことができるかのバランスを考えることが非常に重要だと思います。政府やその他の資金源、投資会社などがスタートアップを倫理的に運営できるよう支援することもできるかもしれません。ESG投資のような倫理的な投資を検討することもできるでしょう。また、一般の人々もこうした倫理的問題への意識を高め、企業に対して安全・倫理問題への配慮を要求すべきです。
政府による法的枠組みだけではなく、ガバナンスの問題、つまり法的な強制力だけでなく、よりソフトでアジャイルなガバナンスも非常に有効だと思います。イノベーションのスピードは非常に速く、1つの国が単独でAIシステムを開発することはなく、サプライチェーンが長くなっています。そのため、国際的な連携が不可欠だと考えます。
Bengio:スタートアップに関しては、EUのAI法とカナダ議会に提出されている法案で見られる重要なAI規制の原則があります。それは、影響の度合いに応じた負担の比例性という考え方です。もしビッグテック企業が1億人の顧客を持ち、非常に強力で危険な方法で悪用され得るシステムを持つAI製品を持っている場合、潜在的な悪影響は非常に高く、システムが安全であることの証明責任はより高くなければなりません。
その1つのバージョンとして、計算量の閾値があります。GPT-4は10^25フロップのオーダーの計算量で訓練されていて、1億ドル規模の資金が必要であり、普通の企業にこれは無理です。それらの企業には、ドキュメント提出や、多くの安全対策をしたりする負担を課さなくてよいことになります。負担は影響の大きさに比例するものであるべきで、小さな会社はあまり心配する必要はないと思います。
事前質問者8:AIの急速な進歩に伴い、AI導入に伴う倫理的影響や潜在的なリスクに対する懸念が高まっています。AI開発が倫理基準と社会価値に沿ったものになるために、どのようなステップをとることが重要だと思いますか?また、AIガバナンスフレームワークを革新性と安全性、説明責任のバランスをとりながら効果的に実装するにはどうすればよいでしょうか?
Bengio:先ほども述べたように、AI規制の主要な原則は、システムの安全性を証明するという要求であるべきでしょう。その証明の正しい方法は現時点では明らかではなく、研究が必要です。また、大手企業がその課題を検討するためのインセンティブが必要なのです。しかし、その後は規制当局や独立した第三者によって独立に評価されるべきです。
これが基本原則ですが、他にも多くの人が検討している具体的な問題があります。例えば、米国大統領令でAIについて取り上げられている質問の1つにセキュリティの問題があります。セキュリティは安全性と同じではありません。セキュリティの観点からすると、安全なシステムであっても、悪意のある者の手に渡れば危険になります。AIシステムはセキュリティを確保する必要があります。これは物理的なセキュリティとサイバーセキュリティの両方の問題であり、AI特有のものではありません。しかし、AIはますます強力になり、犯罪者やテロリスト、民主主義を不安定化させようとする国によって悪用される可能性があるため、規制当局はこれらの企業に対して、システムの保護に細心の注意を払うよう求める必要があります。
これらは私が話せる2つの側面ですが、あなたの質問にはもう1つ、ガバナンスに関する部分がありました。ガバナンスは規制以上のものです。それは、AIを開発している企業の取締役会での日常的な意思決定、またはあらゆる取締役会での意思決定方法です。AIは非常に強力であり、今後はますます強力になるため、このような組織のガバナンス方法は、従来の営利目的の取締役会ではなく、ESGに近いものになるべきだと考えています。つまり、市民社会、独立したアカデミア研究者、もちろん規制当局、さらには国際社会からも代表者を置くべきなのです。なぜなら、ある国でAIを使って危険なものを作り出してしまうと、それはすべての国の人々に影響を与える可能性があるからです。AIをめぐる民主的機関を強化し、これらの企業の最高レベルで下される決定が、私たちの民主主義的価値観と人権に整合したものになるよう、考え始めるべきです。
事前質問者8:映画『ターミネーター』のような、AIと人間との戦争の可能性について、心配する人もいます。
Bengio:一方、残念ながらタイムマシンはまだありませんね(笑)。実際の懸念はターミネーターのようなものではないと思います。ちなみに、ロボットは言語や視覚のような高度な認知機能と比べるとかなり遅れています。しかし、私の講演でもお話ししましたが、制御を失う可能性があるという非常に深刻な計算機科学上の議論があり、ターミネーターのようにはならないかもしれませんが、人間にとって好ましくない独自の目標を持つAIシステムが存在するということはありえます。それを絶対に起こさないようにする必要があります。問題なのは、先ほどもあったように、現在の企業のインセンティブ構造が、このようなリスクに対して十分な注意を払っていないということです。だからこそ、一般市民や政治家がこのようなリスクについてもっと意識を高めることが非常に重要だと思います。多くの人は、AIの危険性について聞くと、ターミネーターのようなSFだと思ってしまいます。SFは、起こりうることを想像する役には立つかもしれませんが、人々はSFだと思う議論を退けがちである点にも注意が必要です。「SFのようにコンピュータが人間より賢くなるなんてありえない」と考えてしまいがちなのですが、科学は、人間よりも賢い機械が存在しうることを示しています。ですから、一般の人々の教育も必要なのです。
これから求められるスキルとは
司会:今後AI専門家に不可欠なスキルとして何を想定されますか?皆さんお一人ずつ簡単にコメントをいただき、松尾先生からの閉会に移りたいと思います。
江間:大学の教育がどのように機能し、どのようなスキルが必要とされているのか。本当に重要だと思うのは、社会で実際に起こっていることと、技術の現状を非常によく把握する必要があるということです。今日も、最先端の技術ついて、また規制や倫理基準はどうあるべきかなど、多くの質問がありました。技術だけでなく、社会も変化し、社会情勢も変化します。例えば、数年前は予想もできなかったCOVID-19のパンデミックは、私たちの働き方や人とのつながり方、マインドセットさえも変えました。ですから、お互いを尊重し合い、視野を広げ、学ぶことが非常に重要だと思います。
例えば、エンジニア側であれば社会科学の研究分野を見ることもできるし、倫理を扱っている人であれば、技術がプライバシーを侵害するだけでなく、プライバシーを保護する方法としても使えることを知るために、もう一歩踏み込んで技術の可能性を見ることもできるでしょう。より柔軟に、アジャイルに、コミュニケーションを開始することが重要です。大学やこのような教育機関は、そのようなことを始めるのに最適な場所だと思います。
私たち教職員は、学生や企業で働いている人たちが大学に戻ってきて、Bengio先生が言ったようなマルチステークホルダーの議論を始めることを歓迎しています。一緒に学び、この社会をよりよい場所にするために貢献し、国際的なAIセーフティの議論にも貢献していきたいと思っています。
Bengio:まったく同意です。いくつか付け加えるならば、AIは社会の多くの分野で導入・開発されるようになってきているので、必要なのは一種類のスキルセットだけではないのです。気候モデル(あるいはがん診療、社会科学)の専門家でありながらAIの専門知識も持っているといった、仕事でAIを使っている人材がこれまで以上に必要とされるでしょう。
AIアルゴリズムの研究者に関しては、私にとっては主に数学と計算機科学が必要だと考えています。数学では線形代数、確率論、最適化が重要です。そしてもちろん、計算機科学の中では理論面とソフトウェア工学も必要です。なぜなら、企業でAIシステムを効率的に作るためのエンジニアリングスキルも非常に重要になってくるからです。特定のハードウェア上で巨大なニューラルネットワークを効率的に訓練する方法のエキスパートになった人もいます。AIに関わる職種は本当に幅広く、今後もますます増えていくでしょう。従来の機械学習研究者の持つスキルは、さまざまな分野にAIを適用するのに必要なスキルのほんの一部にすぎません。
松尾:従来の機械学習やディープラーニングのような技術的スキルに加えて、社会科学、インセンティブ設計、意思決定に関する知識も必要であり、そうした組み合わせが非常に重要です。私自身も今日、Bengio先生の講演から多くのことを学びました。AIセーフティ研究とはどのようなものか疑問に思っていましたが、そのような証明やアルゴリズム設計が、将来的に安全に貢献しうるものであることがわかりました。そのような研究は今後非常に重要になってくるでしょう。ですから、AIと他の研究分野、例えば社会科学などの分野を組み合わせることがとても重要だと思います。
松尾豊氏による閉会挨拶
本日はBengio先生の講演にお集まりいただき、ありがとうございました。Bengio先生、大変示唆に富んだ講演と議論をありがとうございました。ChatGPTが登場したことで、状況は完全に変わりました。よりよいアルゴリズム、よりよいパフォーマンスを出すための研究をする一方で、AIセーフティをより真剣に考える必要があり、本日の講演と議論が皆さんにとってAIセーフティを調べるきっかけになったり、もっと考えてもらえるようになれば幸いです。Bengio先生が示されたように、AIセーフティに興味がある方は、ぜひ研究を始めてみてください。また、大手IT企業はこういった議論を避ける傾向があるため、日本はこの分野で大きな役割を果たすことができるとも付け加えたいと思います。日本、カナダ、アメリカ、EUなど、各国が連携して、よりよい社会を作っていく必要があります。それが本イベントから持ち帰るべき重要なメッセージではないでしょうか。
=========
Bengio先生は講演会の数日前に60歳の誕生日を迎えられたばかりとのことで、江間先生から日本スタイルのプレゼントが贈られ、会場は一段と大きな拍手に包まれた。
Yoshua Bengio氏
来日特別講演会レポート
【前編】を読む