language
注意事項
当サイトの中国語、韓国語ページは、機械的な自動翻訳サービスを使用しています。
翻訳結果は自動翻訳を行う翻訳システムに依存します。場合によっては、不正確または意図しない翻訳となる可能性があります。
翻訳サービスを利用した結果について、一切を保証することはできません。
翻訳サービスを利用される場合は、自動翻訳が100%正確ではないことを理解の上で利用してください。

科学研究のためのAI研究を通じて
人間の限界を越えた未知の数理モデルの発見を目指す

写真:教授・博士(工学) 松原 崇

情報理工学部門 数理科学分野

構造化知能研究室・教授

博士(工学)松原 崇

プロフィール

2013年03月、大阪大学 大学院基礎工学研究科 博士前期課程修了。2013年04月〜2015年03月、日本学術振興会 学振特別研究員 (DC1)。2015年03月、大阪大学 大学院基礎工学研究科 博士後期課程修了。2015年04月〜2020年03月、神戸大学 大学院システム情報学研究科 計算科学専攻 助教。2020年04月〜2024年03月、大阪大学 大学院基礎工学研究科 システム創成専攻 准教授。2021年10月〜 2022年03月、科学技術振興機構 さきがけ研究員。2024年04月より北海道大学 大学院情報科学研究院 教授。大阪大学 大学院基礎工学研究科 招へい教授。

深層学習と数理モデルを融合した幾何学的深層学習

─松原教授の研究テーマはどのようなものですか。

教授・博士(工学) 松原 崇

松原 数理構造を活用した新しい深層学習の設計に取り組んでいます。研究対象は大きく2つあります。1つ目は、深層学習(ニューラルネットワーク)を用いて、物理現象などの計算機シミュレーションを高速化・高精度化する研究です。もう1つは、生成AIの中でも特に画像や動画を意のままに綺麗に生成することを目指す研究になります。一見すると異なるテーマのように思えますが、解析力学や微分幾何学の考え方を深層学習に取り入れるという点で、技術的にはかなり共通しています。

AIを用いた計算機シミュレーションにおいては、支配方程式が未知であったり、厳密な計算が非常に困難であったりする物理現象に対して、データから適切な数理モデルを自動的に構築し、高速性と正確性を両立したシミュレーションや制御を実現したいと考えています。この分野は英語圏だとscientific machine learning (SciML)と呼ばれており、日本語訳するなら「科学技術機械学習」でしょうか。広い目で見ると「AI for Science(科学研究のためのAI)」の一分野であり、今年ノーベル化学賞を受賞したAlphaFoldとも通じる部分があると思います。また、天気予報などの分野でも近年注目を集めています。

観測データから物理法則を発見するAIの開発

─具体的にどのようなAIを開発しているのでしょうか

松原 深層学習は、十分なデータと計算資源さえあれば、どんな関数でも高い精度で近似でき、未来予測や画像識別など幅広いタスクをこなせると期待されています。しかし、一般的な深層学習モデルは物理法則を考慮していません。そのため、長期にわたって計算機シミュレーションを行うと、わずかな誤差が蓄積され、現実とは質的に異なる無意味な結果に導いてしまう場合があります(解説1)。そこで、エネルギー保存則などの物理法則を満たすように深層学習を設計することで、より長期的な予測精度を向上させ、物理的に妥当なシミュレーションを実現できるのではないかと考えています。言い換えると、深層学習が学習できる範囲を「どんな関数でも」から「物理法則を満たす関数だけ」に制限するイメージです(解説2)。

例えば、天体の運動や摩擦のない振り子のように、エネルギーが保存する物理現象を想定しましょう。エネルギーの総量を山の高さに例えると、その山の等高線上を移動している限り、エネルギーは変化しません。そこで、一つのニューラルネットワークで物理現象の未来を直接予測するのではなく、エネルギーの山を表すニューラルネットワークと、山の傾きに基づいて、等高線上のどの方向に進むかを決めるニューラルネットワークの、2つにあえて分けて学習させます。専門用語を使えば、ハミルトン方程式を構成するハミルトン関数とシンプレクティック形式をそれぞれ学習します。そうすることで、エネルギー保存則に従う物理現象のみを学習対象にでき、より信頼性の高い予測が可能になります。この考え方は非常に重要で、摩擦がある物理現象の場合には、「山を少しずつ下る要素」を追加することで同様に拡張ができ、従来の方法よりも高い精度を達成できます。物理現象をこのような要素に分解するアプローチは幾何学的力学という解析力学の一分野にインスパイアされており、その意味でこれらの深層学習手法を私は幾何学的深層学習と呼んでいます。

物理現象はニーズや理論が明確でわかりやすいのですが、今後は生物や社会といった法則が明確でない複雑なシステムへ応用したり、ロボットなどの制御分野にも展開したりしていきたいと考えています。

画像データに存在する“物理”

─画像や動画とはどのように関係するのでしょうか

松原 本来の順序は実は逆でして、このようなテクニックはむしろ画像処理の分野で発展してきました。畳み込みニューラルネットワークは、画像処理のために開発された深層学習の一種でして、まさに現在のAIブームを引き起こした立役者です。このネットワークの大きな特徴は、同じ物体であれば画像のどこに写っていても同じように認識できる点にあります(解説3)。たとえば、人間の視覚においても、眼の前にいても、視界の端にいても、猫は猫です。私たちが物体について知りたいとき、「何であるか」と「どこにあるか」を分けて考えることが多いと思います。畳み込みニューラルネットワークはまさにこうしたニーズに応えるよう設計されています。たとえるなら、数字の列である「010000」と「000010」を同じとみなすような特殊なルールを導入しているようなものであり、その分だけ相応の工夫が必要です。

私たちが何らかのデータを処理・認識・生成したいとき、そのデータにはたいていなにがしかの法則が紐づいていたり、人間側に特殊なニーズがあったりします。「位置に意味がない」「見た目の大きさは距離によって変わる」といった具合です。こうした性質を考えずに、ただ大量のデータを与えて網羅的に学習させるだけでも、深層学習はそれなりの精度で問題を解決します。しかし、それはすでにやり尽くされていますので、最新の深層学習が十分に学習できていない要素を改善するには、これらの性質を巧みにモデルに組み込むことが何よりも重要になってきます。

本来、幾何学的深層学習という名前は、このような画像などのデータが持つ幾何学的な性質をうまく扱える深層学習を指します。ところで、畳み込みニューラルネットワークがもつ性質は平行移動同変性といいますが、面白いことにこの性質は解析力学の世界で運動量保存則に結びついています。このような共通点を踏まえると、幾何学的力学にインスパイアされた深層学習も幾何学的深層学習と読んで差し支えないだろうというのが私の考えです。また、深層学習を用いた実践で先行する画像処理分野に、解析力学や微分幾何学における理論的な蓄積を上手く結びつけることで、人間のニーズやデータの性質に合った情報処理システムが構築できると考えています。

直接研究しているわけではありませんが、このような考え方は本当に幅広い応用が可能です。世間的にはChatGPTやClaude、Geminiなどに代表される(large language model; LLM)が注目されているかと思います。LLMの基盤技術であるTransformerは、文章中の単語の出現位置にはある程度自由度があるとか(例えば、日本語だと「昨日カレーを食べた」でも「カレーを昨日食べた」でもあまり意味は変わりません)、遠く離れた2単語に深い関係性があるとか(ある文の人称代名詞が、前の文の名詞を意味しているなど)、自然言語の持つ性質をうまく扱えるよう置換群同変性という性質が組み込まれた幾何学的深層学習の一種です。

私の研究の一例を挙げますと、画像を意味論的に編集したいというニーズがあります(解説4)。「俳優を雇って広告用の写真を撮影したけれど、文字を入れてみたら少しバランスが悪かったので、表情の違う写真がほしいが、再度撮影するのは予算的に難しい」というような状況を考えてください。そうすると、その俳優の同一性を保ったまま、画像の表情を変えるという意味的な編集を行わないといけません。そこで、画像を直接編集するのではなく、畳み込みニューラルネットワークを使ってその画像の特徴量を抽出し、その特徴量を編集することで、間接的に画像を編集する手法があります。このとき、特徴量とどのように編集すれば良いか学習しなければいけません。特徴量の編集に紐づく性質を考えると、意味の足し算・引き算・定数倍ができる、いろいろな意味を足してから同じものを引くともとに戻る、というようなものが想定でき、ベクトル空間に近いことがわかります。そこで、特徴量の空間にベクトル空間の性質を与えてやると、実際にきれいな画像の編集ができるようになります。このように、人間のニーズや想定を数学の言葉に置き換えることで、よりよい深層学習システムを設計することができます。

AI時代の研究開発のあり方

─AIの高度化は社会にどのような影響をもたらすでしょうか。

教授・博士(工学) 松原 崇

松原 いまのところ、深層学習に大量のデータを与えるよりも、人間が作った方程式をスーパーコンピュータで計算したほうが、物理現象をより正確に予測できます。しかし、気象のように複雑な要素が互いに絡み合う現象では人間が十分に方程式化できないため、近年は深層学習による予測のほうが優位になるケースが徐々に増えてきました。今後は、分子の動態を予測して薬剤を開発したり、車体や部材の強度・空気抵抗を予測して設計したり、ロボット制御による作業を自動化したりと、さまざまな分野でこの“逆転現象”が起こり、高速化・高精度化がさらに進むと考えられます。

一方で、こうした技術の進展は、科学研究のあり方そのものに新たな問いを投げかけます。これまでの科学研究では、人間が現象を詳細に観察し、そこから方程式や法則を導き、それによって未来を予測したり結果を制御できるようになったときに、「現象を理解できた」「科学的な発見があった」と考えてきました。ところが、深層学習が生み出す関数は、人間が作る方程式のように各項目に明確な意味があるわけではなく、その構造があまりにも巨大かつ複雑であるため、そこに意味を見いだすのはほとんど不可能です。それでも、もしこうした関数が、人間の作った方程式よりはるかに正確に未来を予測し、結果を制御できるようになった場合、私たちはそれをもって「現象をより深く理解した」と言えるのでしょうか。深層学習による予測・制御と、人間の理解を切り離して考えるのも一つの解決策ではありますが、深層学習ほどの精度を出せない方程式しか手元にない状態で、「それでも現象を理解している」と胸を張って言えるのかは疑問です。

こうした状況を予見する研究者は少なくなく、すでにさまざまな議論が起こっていますが、私の研究はそこにちょっとした折衝案を提供できると考えています。つまり、人間には深層学習が生み出す関数を方程式として直接理解することはできませんが、その関数の幾何学的性質――たとえば平行移動同変性など――であれば容易に理解できるということです。実際、専門家がある現象を記述する方程式を作るとき、その方程式が何次の多項式かという点はさほど重要ではなく、それが現象の性質を正しく表しているかどうかが最も重要です。そう考えると、方程式自体は深層学習が生み出す未知の関数でも構わず、そこに備わる性質さえ理解できれば、「現象を理解した」と言ってよいのではないでしょうか。私の長期的な研究目標は、「深層学習によって現象をより深く理解できた」という事例を一例でも示し、科学研究と「理解」のあり方を改めて問い直すことにあります。

とはいえ、日々の研究はあくまで、AIによる計算機シミュレーションと生成AIで、社会に役立つアプリケーションの基盤を作ることです。配属された学部生や大学院生はもちろん、国内外からのインターンを積極的に受け入れ、あるいは海外の研究室に学生を送り出し、大きなネットワークの中で幅広い活動を続けていく研究組織を作っていきたいと思っています。

解説

解説1:保存則のある方程式の学習

波が伝わっていく様子をモデル化したKdV方程式の学習結果。エネルギーや質量の保存を仮定しないと、すぐに波の形が崩れてしまう。

図

解説2:深層学習が学習できる範囲を制限

人の手で設計した関数は、データからの学習が不要だが、最適なモデルからずれてしまうかもしれない。一方、ただの深層学習では学習できる範囲が広すぎて効率が悪い。適切な制約を与えることで、精度と効率性を両立できる。

図

解説3:畳み込みニューラルネットワーク

猫の画像 x を畳み込みニューラルネットワーク f に与えたもの f(x) は特徴量と呼ばれる。猫の位置を g だけ平行移動し、新しい画像 gx を得る。これを畳み込みニューラルネットワーク f に与えたもの f(gx) は、もとの特徴量 f(x) g だけ動かしたもの g f ( x ) と一致する。このような性質を平行移動同変性という。

図

解説4:意味論的な画像の編集

画像を直接編集するのではなく、一旦特徴量に変換し、特徴量の操作 ρ g' で画像の編集 ρ g の代わりとする。このとき ρ g = f - 1 ρ g' f であり、これは何を編集したいかを表す g に関わらず成立しなければならない。

図