論文の概要: Connecting Dualities and Machine Learning
- arxiv url: http://arxiv.org/abs/2002.05169v1
- Date: Wed, 12 Feb 2020 19:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 20:04:36.228383
- Title: Connecting Dualities and Machine Learning
- Title(参考訳): デュアル性と機械学習をつなぐ
- Authors: Philip Betzler, Sven Krippendorf
- Abstract要約: 二重性は量子場理論や弦理論において、高い精度で相関関数を得るために広く用いられている。
ここでは、二値データ表現が教師付き分類、機械学習と理論物理学の典型的なタスクのリンクに有用である例を示す。
特徴分離, 所望の表現に対する特徴マッチング, 単純な相関関数の優れた性能により, 未知の2つの表現を導出できることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dualities are widely used in quantum field theories and string theory to
obtain correlation functions at high accuracy. Here we present examples where
dual data representations are useful in supervised classification, linking
machine learning and typical tasks in theoretical physics. We then discuss how
such beneficial representations can be enforced in the latent dimension of
neural networks. We find that additional contributions to the loss based on
feature separation, feature matching with respect to desired representations,
and a good performance on a `simple' correlation function can lead to known and
unknown dual representations. This is the first proof of concept that computers
can find dualities. We discuss how our examples, based on discrete Fourier
transformation and Ising models, connect to other dualities in theoretical
physics, for instance Seiberg duality.
- Abstract(参考訳): 双対性は、高い精度で相関関数を得るために量子場理論や弦理論で広く使われている。
本稿では,2重データ表現が教師付き分類,機械学習,および理論物理学における典型的なタスクに有用である例を示す。
次に,このような有益表現がニューラルネットワークの潜在次元においてどのように強制されるかについて議論する。
特徴分離に基づく損失に対する追加の貢献、所望の表現に対する特徴マッチング、および'単純'な相関関数での優れたパフォーマンスは、既知の双対表現と未知の二重表現に繋がる可能性がある。
これはコンピュータが双対性を見つけることができる最初の概念実証である。
離散フーリエ変換とイジングモデルに基づき、我々の例は理論物理学における他の双対性(例えばセイバーグ双対性)とどのようにつながるかについて議論する。
関連論文リスト
- Machine learning and optimization-based approaches to duality in statistical physics [2.3727769223905515]
双対性(英: duality)とは、ある物理系が2つの異なる数学的記述を持つことができるという考え方である。
この問題を数値的に解き、2次元イジングモデルのクラマース・ワニエ双対性を再発見できることを示す。
また、トポロジカルラインの写像の既知の特徴を利用して問題を減らし、双対ハミルトニアンのカップリングを最適化する別のアプローチについても論じる。
論文 参考訳(メタデータ) (2024-11-07T16:29:03Z) - Bridging Associative Memory and Probabilistic Modeling [29.605203018237457]
連想記憶と確率的モデリングは人工知能の2つの基本的なトピックである。
両方向のアイデアの有用なフローを実現するために,この2つの橋を架けています。
論文 参考訳(メタデータ) (2024-02-15T18:56:46Z) - Going Beyond Neural Network Feature Similarity: The Network Feature
Complexity and Its Interpretation Using Category Theory [64.06519549649495]
機能的に等価な機能と呼ぶものの定義を提供します。
これらの特徴は特定の変換の下で等価な出力を生成する。
反復的特徴マージ(Iterative Feature Merging)というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-10T16:27:12Z) - Topological dualities via tensor networks [0.0]
トーリック符号の基底状態、2次元のクラスD超伝導体、および2次元のイジングモデルの分配和は、互いに双対である。
フェルミオン系とボゾン系を接続すると、双対性の構成は本質的に非局所的である。
我々はこの双対性に対する統一的なアプローチを提案し、その主役は中間変換子の役割を仮定するテンソルネットワーク(TN)である。
論文 参考訳(メタデータ) (2023-09-22T18:00:17Z) - A simple probabilistic neural network for machine understanding [0.0]
本稿では,機械理解のためのモデルとして,確率的ニューラルネットワークと内部表現の固定化について論じる。
内部表現は、それが最大関係の原理と、どのように異なる特徴が組み合わされるかについての最大無知を満たすことを要求して導出する。
このアーキテクチャを持つ学習機械は、パラメータやデータの変化に対する表現の連続性など、多くの興味深い特性を享受している、と我々は主張する。
論文 参考訳(メタデータ) (2022-10-24T13:00:15Z) - Curvature-informed multi-task learning for graph networks [56.155331323304]
最先端のグラフニューラルネットワークは、複数の特性を同時に予測しようとする。
この現象の潜在的な説明として、各特性の損失面の曲率が大きく異なり、非効率な学習につながる可能性がある。
論文 参考訳(メタデータ) (2022-08-02T18:18:41Z) - On Neural Architecture Inductive Biases for Relational Tasks [76.18938462270503]
合成ネットワーク一般化(CoRelNet)と呼ばれる類似度分布スコアに基づく簡単なアーキテクチャを導入する。
単純なアーキテクチャの選択は、分布外一般化において既存のモデルより優れていることが分かる。
論文 参考訳(メタデータ) (2022-06-09T16:24:01Z) - Dynamic Inference with Neural Interpreters [72.90231306252007]
本稿では,モジュールシステムとしての自己アテンションネットワークにおける推論を分解するアーキテクチャであるNeural Interpretersを提案する。
モデルへの入力は、エンドツーエンドの学習方法で一連の関数を通してルーティングされる。
ニューラル・インタープリタは、より少ないパラメータを用いて視覚変換器と同等に動作し、サンプル効率で新しいタスクに転送可能であることを示す。
論文 参考訳(メタデータ) (2021-10-12T23:22:45Z) - Can Temporal-Difference and Q-Learning Learn Representation? A Mean-Field Theory [110.99247009159726]
時間差とQ-ラーニングは、ニューラルネットワークのような表現力のある非線形関数近似器によって強化される深層強化学習において重要な役割を担っている。
特に時間差学習は、関数近似器が特徴表現において線形であるときに収束する。
論文 参考訳(メタデータ) (2020-06-08T17:25:22Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。