論文の概要: The Autodidactic Universe
- arxiv url: http://arxiv.org/abs/2104.03902v2
- Date: Thu, 2 Sep 2021 13:20:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-06 05:43:00.668221
- Title: The Autodidactic Universe
- Title(参考訳): 自己双対宇宙は
- Authors: Stephon Alexander, William J. Cunningham, Jaron Lanier, Lee Smolin,
Stefan Stanojevic, Michael W. Toomey, Dave Wecker
- Abstract要約: 宇宙が自身の物理法則を学習する宇宙論へのアプローチを提案する。
我々はこれらの行列モデルをゲージ/重力理論と学習機械の数学的モデルの両方に対応づけたマップを発見する。
自律的なシステムでは,教師のいない学習がどのような意味を持つのかを詳細に議論する。
- 参考スコア(独自算出の注目度): 0.8795040582681388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present an approach to cosmology in which the Universe learns its own
physical laws. It does so by exploring a landscape of possible laws, which we
express as a certain class of matrix models. We discover maps that put each of
these matrix models in correspondence with both a gauge/gravity theory and a
mathematical model of a learning machine, such as a deep recurrent, cyclic
neural network. This establishes a correspondence between each solution of the
physical theory and a run of a neural network. This correspondence is not an
equivalence, partly because gauge theories emerge from $N \rightarrow \infty $
limits of the matrix models, whereas the same limits of the neural networks
used here are not well-defined. We discuss in detail what it means to say that
learning takes place in autodidactic systems, where there is no supervision. We
propose that if the neural network model can be said to learn without
supervision, the same can be said for the corresponding physical theory. We
consider other protocols for autodidactic physical systems, such as
optimization of graph variety, subset-replication using self-attention and
look-ahead, geometrogenesis guided by reinforcement learning, structural
learning using renormalization group techniques, and extensions. These
protocols together provide a number of directions in which to explore the
origin of physical laws based on putting machine learning architectures in
correspondence with physical theories.
- Abstract(参考訳): 我々は、宇宙が自身の物理法則を学ぶ宇宙論のアプローチを提案する。
可能な法則のランドスケープを探索することで、それはある種の行列モデルとして表現される。
我々は、これらの行列モデルをゲージ/重力理論と、ディープ・リカレント・サイクリック・ニューラルネットワークのような学習機械の数学的モデルの両方に対応させるマップを発見する。
これにより、物理理論の各解とニューラルネットワークの実行との対応が確立される。
この対応は同値ではない、なぜならゲージ理論が行列モデルの$N \rightarrow \infty $極限から現れるからである。
自律的なシステムでは,教師のいない学習がどのような意味を持つのかを詳細に議論する。
ニューラルネットワークモデルが教師無しで学習できるなら、それに対応する物理理論についても同じことが言えると提案する。
本稿では,グラフの多様性の最適化,自己アテンションとルックアヘッドを用いたサブセットレプリケーション,強化学習によるジオメトリジケーション,正規化グループ手法を用いた構造学習,拡張など,自律的物理システムのための他のプロトコルについて考察する。
これらのプロトコルは、機械学習アーキテクチャを物理理論に対応づけることに基づいて、物理法則の起源を探求する多くの方向を提供する。
関連論文リスト
- Don't Cut Corners: Exact Conditions for Modularity in Biologically Inspired Representations [52.48094670415497]
我々は、生物にインスパイアされた表現が、ソース変数(ソース)に関してモジュール化されるときの理論を開発する。
我々は、最適な生物学的にインスパイアされたリニアオートエンコーダのニューロンがモジュラー化されるかどうかを判断する情報源のサンプルに対して、必要かつ十分な条件を導出する。
我々の理論はどんなデータセットにも当てはまり、以前の研究で研究された統計的な独立性よりもはるかに長い。
論文 参考訳(メタデータ) (2024-10-08T17:41:37Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - LOGICSEG: Parsing Visual Semantics with Neural Logic Learning and
Reasoning [73.98142349171552]
LOGICSEGは、神経誘導学習と論理推論をリッチデータとシンボリック知識の両方に統合する、全体論的視覚意味論である。
ファジィ論理に基づく連続的な緩和の間、論理式はデータとニューラルな計算グラフに基礎を置いており、論理によるネットワークトレーニングを可能にする。
これらの設計によりLOGICSEGは、既存のセグメンテーションモデルに容易に統合できる汎用的でコンパクトなニューラル論理マシンとなる。
論文 参考訳(メタデータ) (2023-09-24T05:43:19Z) - Duality Principle and Biologically Plausible Learning: Connecting the
Representer Theorem and Hebbian Learning [15.094554860151103]
我々はRepresenter定理が生物学的に妥当な学習アルゴリズムを研究するのに最適なレンズであると主張している。
私たちの研究は、ニューラルネットワークの理解を深める上で、Representer定理の重要な役割に光を当てています。
論文 参考訳(メタデータ) (2023-08-02T20:21:18Z) - A Toy Model of Universality: Reverse Engineering How Networks Learn
Group Operations [0.0]
我々は,小人数のニューラルネットワークが集団構成の実装をどのように学習するかを検討することによって,普遍性仮説を検証した。
本稿では,ニューラルネットワークが任意の有限群の合成を数学的表現理論によって実装できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-06T18:59:20Z) - Contextuality and inductive bias in quantum machine learning [0.0]
機械学習の一般化は、しばしば、データに存在する構造をモデルクラスの帰納バイアスにエンコードする能力に依存する。
量子文脈性(quantum contextuality) - 計算上の優位性にリンクした非古典性の形式。
我々は、関連する帰納バイアスを伴う量子学習モデルの構築方法を示し、おもちゃの問題を通して、それらが対応する古典的代理モデルより優れていることを示す。
論文 参考訳(メタデータ) (2023-02-02T19:07:26Z) - Binary Multi Channel Morphological Neural Network [5.551756485554158]
本稿では,畳み込みニューラルネットワーク上に構築されたBiMoNNを紹介する。
ネットワーク全体をバイナライズするために,BiMoNNとモルフォロジー演算子との等価性を実証する。
これらは古典的形態学演算子を学習し、医用画像アプリケーションで有望な結果を示すことができる。
論文 参考訳(メタデータ) (2022-04-19T09:26:11Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Credit Assignment in Neural Networks through Deep Feedback Control [59.14935871979047]
ディープフィードバックコントロール(Deep Feedback Control, DFC)は、フィードバックコントローラを使用して、望ましい出力ターゲットにマッチするディープニューラルネットワークを駆動し、クレジット割り当てに制御信号を使用する新しい学習方法である。
学習規則は空間と時間において完全に局所的であり、幅広い接続パターンに対するガウス・ニュートンの最適化を近似する。
さらに,DFCと皮質錐体ニューロンのマルチコンパートメントモデルと,局所的な電圧依存性のシナプス可塑性規則を関連づける。
論文 参考訳(メタデータ) (2021-06-15T05:30:17Z) - Compositional Processing Emerges in Neural Networks Solving Math
Problems [100.80518350845668]
人工知能の最近の進歩は、大きなモデルが十分な言語データに基づいて訓練されると、文法構造が表現に現れることを示している。
我々は、この研究を数学的推論の領域にまで拡張し、どのように意味を構成するべきかについての正確な仮説を定式化することができる。
私たちの研究は、ニューラルネットワークがトレーニングデータに暗黙的に構造化された関係について何かを推測できるだけでなく、個々の意味の合成を合成全体へと導くために、この知識を展開できることを示している。
論文 参考訳(メタデータ) (2021-05-19T07:24:42Z) - Quantum mechanics is *-algebras and tensor networks [1.479413555822768]
情報理論の観点から量子力学の体系的アプローチを提供する。
我々の定式化はただ一つの種類の対象、いわゆる正の *-テンソルしか必要としない。
リアルタイム進化やサーマルシステムなど,さまざまなタイプのモデルが,*テンソルネットワークに変換可能であることを示す。
論文 参考訳(メタデータ) (2020-03-17T22:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。