618ZXW

たった今、AIのゴッドファーザーにノーベル物理学賞が授与されました!

今年のノーベル物理学賞はAIに授与されます!

機械学習の先駆者であるヒントン氏ホップフィールド氏の共同受賞は、誰にとっても驚きだった。

そうです、事前に予測されていたのは、凝縮物質物理学や量子物理学などの人気の分野ではなく、AI、具体的には機械学習、さらに具体的にはニューラル ネットワークです。

機械学習のための人工ニューラルネットワークの利用に関する基礎的な発見と発明が評価されました。

それで、彼らの貢献は物理学とどのように関係しているのでしょうか?

ノーベル賞委員会は次のように明らかにした。

彼らは物理的な方法を使用して情報の特徴を見つけ、今日の強力な機械学習の基礎となる方法論を構築しました。

ホップフィールドの「ホップフィールド ニューラル ネットワーク」、物理学におけるスピン システムのエネルギーに相当する方法で説明されます。

ヒントンの「ボルツマンマシン」統計物理学のツールを活用しています。

その後、ヒントン氏はこの研究を基に、ディープラーニング革命として知られる現在の機械学習の爆発的な発展のきっかけ作りに貢献しました。

人工ニューラルネットワークの最初の重要な基礎

ジョン・ジョセフ・ホップフィールドは1933年7月15日に生まれました。

彼は1954年にスワースモア大学で物理学の理学士号を取得し、1958年にコーネル大学で博士号を取得しました。

彼は当初、物理化学と凝縮物質化学を研究の中心としていました。その後、ベル研究所で働いている間に、分子生物学に強い関心を持つようになりました。

1940 年代以降、研究者たちは脳のニューロンとシナプスネットワークの背後にある数学的論理について推論し始めました。

その後、人々はコンピューターを使って脳のネットワーク機能をシミュレートしようと試み始めました。つまり、人工ニューラルネットワークの構築が始まったのです。

これらのネットワークでは、脳内のニューロンは異なる値を割り当てられたノードによって模倣され、シナプスはノード間の接続によって表現され、接続は強くなったり弱くなったりします。ドナルド・ヘブの仮説は、トレーニングと呼ばれるプロセスを通じて人工ネットワークを更新するための基本ルールの一つとして、現在でも用いられています。

その後長い間、学界は数学的および物理的な手法を用いて生物学的神経科学を研究しようと試みてきました。

たとえば、ホップフィールドは物理学の知識を生かして分子生物学の理論的問題を研究しました。

神経科学の会議に招待された際、彼は脳の構造に関する研究に出会いました。彼はそこで学んだことに魅了され、単純なニューラルネットワークのダイナミクスについて考え始めました。

ニューロンが連携して働くと、ネットワークの個々のコンポーネントだけを観察する人には明らかではない、新しい強力な特性を生み出すことができます。

1980年、ホップフィールドはプリンストン大学を辞任した。彼の研究対象は物理学の同僚たちの研究の域を超え、彼は大陸を横断してカリフォルニア州パサデナにあるカリフォルニア工科大学へと移った。そこで彼は、ニューラルネットワークに関する実験や自身のアイデアの発展のために、自由にコンピュータリソースを利用できるようになった。

しかし、彼は物理学の基礎を放棄せず、そこからインスピレーションを得て、多くの小さな要素を体系的に使用して連携させることで、新しい興味深い現象を生み出すことができることを理解しました。

彼は特に、原子スピン(各原子を小さな磁石にする性質)により独特の特性を持つ磁性材料の研究から恩恵を受けました。

隣接する原子のスピンは互いに影響を及ぼし合い、これにより同じスピン方向を持つドメインが形成される可能性があります。彼は、スピンが互いに影響し合うことで物質がどのように進化するかを記述する物理学を用いて、ノードと接続を持つモデルのネットワークを構築することに成功しました。

脳の神経ネットワークは、高度な内部機構を持つ生きたニューロンで構成されています。ニューロンはシナプスを介して互いに信号を送り合うことができます。私たちが何かを学習すると、一部のニューロン間の接続は強くなり、他のニューロン間の接続は弱くなります。

人工ニューラルネットワークは、値がエンコードされたノードから構築されます。ノードは相互接続されており、ネットワークが学習されるにつれて、同時にアクティブなノード間の接続は強くなり、同時にアクティブでないノード間の接続は弱くなります。

ホップフィールドは、さまざまな強度の接続を通じて相互接続されたネットワーク ノードを構築します。

各ノードは単一の値を格納できます。ホップフィールドの最初のジョブでは、これは白黒画像のピクセルのように 0 または 1 になります。

ホップフィールドネットワークは、ネットワーク全体の状態を記述するために単一の特性を用います。これは物理学におけるスピンシステムのエネルギーに相当します。エネルギーは、すべてのノードの値とそれらの間のすべての接続の強度を引数とする式を用いて計算されます。ホップフィールドネットワークは、ノードに画像を入力し、黒(0)または白(1)の値を割り当てることでプログラムされます。

次に、エネルギー式を用いてネットワーク接続を調整し、保存された画像のエネルギーが低くなるようにする。別のパターンがネットワークに入力されると、各ノードを一つずつチェックし、そのノードの値を変更することでネットワークのエネルギーが減少するかどうかを調べるというルールが適用される。

黒いピクセルが白いピクセルであることがわかった場合、エネルギーが減少し、色が変化します。このプロセスは、これ以上の改善が見られなくなるまで続けられます。

この時点に達すると、ネットワークは通常、トレーニングに使用した元の画像上で自分自身を複製します。

パターンを 1 つだけ保存すると、見た目があまり印象的でない可能性があります。

なぜ画像自体を保存して、テスト対象の別の画像と比較しないのかと疑問に思うかもしれませんが、ホップフィールドの方法が特別なのは、複数の画像を同時に保存でき、通常はネットワークがそれらを区別できる点です。

ホップフィールド氏は、保存された状態を探すネットワークの探索を、摩擦によって動きが遅くなる山や谷の景色の中でボールを転がすことに例えた。

ボールが特定の場所に置かれると、最も近い谷に転がり込み、そこで止まります。ネットワークに保存されたパターンの1つに近いパターンが与えられた場合、ネットワークは同じ動きを続け、最終的にエネルギーランドスケープの谷底に到達し、記憶されている最も近いパターンを見つけます。

ホップフィールドらはその後、0 や 1 だけでなく任意の値を格納できるノードを含むホップフィールド ネットワークの研究をさらに進めました。

ノードを画像内のピクセルと考えると、黒や白だけでなく、さまざまな色を持つことができます。

改良された手法により、より多くの画像を保存し、非常に類似した画像であっても区別することが可能になりました。同様に、多くのデータポイントから構成される限り、あらゆる情報を識別または再構築することが可能です。

しかし、イメージを記憶することと、それが何を表しているかを解釈することは別のことです。

非常に幼い子供でも、さまざまな動物を指差して、それが犬なのか、猫なのか、リスなのかを自信を持って言うことができます。

時々間違えることもあるかもしれませんが、すぐに正しく区別します。子どもたちは、図表や種や哺乳類といった概念の説明を見なくても、これを学ぶことができます。それぞれの動物の例をいくつか見ることで、子どもたちの心の中に様々なカテゴリーが形成されます。人は、周囲の環境を体験することで、猫を識別したり、単語を理解したり、部屋に入って何かが変わったことに気づいたりするようになります。

ホップフィールドが連想記憶に関する論文を発表したとき、ヒントンはカーネギーメロン大学で働いていました。

彼は以前、英国とスコットランドで実験心理学と人工知能を学んでおり、機械が人間と同じような方法で処理パターンを学習し、情報を分類して解釈するための独自のカテゴリーを見つけることができるかどうかを知りたいと考えていました。

ヒントン:チューリング賞とノーベル賞受賞者

ヒントンの研究はホップフィールドニューラルネットワークに基づいています

当時、ヒントン氏はカーネギーメロン大学に勤務していました。彼は以前、英国で実験心理学と人工知能を学んでおり、機械が人間と同様に学習し、情報を処理できるかどうかを知りたいと考えていました。

彼は同僚のテレンス・セジュスキーとともに、統計物理学のアイデアを使ってホップフィールド ネットワークを拡張しました。

統計物理学は、気体中の分子など、多くの類似した要素で構成されるシステムを説明します。

ガス中の分子を一つ一つ追跡するのは困難または不可能ですが、それらを総合的に考慮することで、圧力や温度など、ガスの全体的な特性を決定することができます。

気体分子は、それぞれの速度で体積内を拡散する様々な可能性を秘めています。統計物理学は、個々の成分が共存できる状態を分析し、それらの発生確率を計算するために用いられます。

19 世紀の物理学者ルートヴィヒ・ボルツマンは、ある状態が他の状態よりも発生する可能性が高い理由を方程式を使って説明しました。

ヒントンはこの方程式を使ってボルツマンマシンを提案した。

今日のディープ ニューラル ネットワークと同様に、ボルツマン マシンは例から学習することができ、ネットワーク接続内の値を更新することでトレーニングされます。

ボルツマンマシンの初期バージョンは非常に非効率で、 1990年代までに多くの研究者が人工ニューラルネットワークへの関心を失っていました。ヒントンは、その研究を最後まで諦めなかった数少ない研究者の一人でした

2006 年までに、彼と彼の同僚はボルツマン マシンに基づくDeep Belief Nets を開発しました。これは、後にディープラーニングの基礎となる、教師なしの層ごとのトレーニング方法を提案しました。

結論として、ノーベル賞委員会は、1980年代のホップフィールドとヒントンの研究が、2010年頃に始まった機械学習革命の基礎を築いたと指摘した。

物理学は機械学習の開発にツールを提供してきました。そして今、機械学習は物理学の研究に役立っています。

たとえば、機械学習はヒッグス粒子の発見などノーベル賞受賞分野で膨大な量のデータを処理するために長年使用されてきました。また、重力波測定におけるノイズの低減や太陽系外惑星の探索にも使用できます。

近年では、タンパク質の機能を決定する分子構造の計算や、高効率太陽電池に使用できるより性能の高い新材料の設計など、分子や物質の特性の計算や予測にもこの技術が活用され始めています。

もう一つ

周知のとおり、ディープラーニングの三大巨頭の一人であるヒントンは、2018年のチューリング賞受賞者でもあります。

将来を見据えると、ヒントン以前にノーベル賞とチューリング賞の両方を獲得した科学者はたった一人しかいなかった。

ハーバート・アレクサンダー・サイモン(中国名:司馬和)。

ヒントン同様、サイモンもノーベル賞を受賞する前にチューリング賞を受賞した。

1975 年、サイモンとアレン・ニューウェルは人工知能、人間の精神認識、リスト処理に関する基礎研究でチューリング賞を受賞しました。

(彼らは象徴主義の創始者であり代表者であり、物理的象徴システム仮説を提唱した。)

1978年、サイモンは限定合理性と意思決定理論に関する理論でノーベル経済学賞を受賞しました。

参考リンク:
[1]https://www.nobelprize.org/ [2]https://www.cs.toronto.edu/~f...