論文の概要: Self-Supervised Learning of Generative Spin-Glasses with Normalizing
Flows
- arxiv url: http://arxiv.org/abs/2001.00585v2
- Date: Fri, 10 Jan 2020 19:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-16 03:45:25.931819
- Title: Self-Supervised Learning of Generative Spin-Glasses with Normalizing
Flows
- Title(参考訳): 正規化フローによる生成スピングラスの自己教師付き学習
- Authors: Gavin S. Hartnett, Masoud Mohseni
- Abstract要約: 一般的な離散問題におけるモデル相関に対する正規化フローを用いた連続スピングラス分布の開発を行う。
スピングラス位相の物理的および計算的特性をうまく学習できることを実証する。
注目すべきは、学習そのものがトレーニングされた正規化フローの層内のスピングラス相転移に対応することである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Spin-glasses are universal models that can capture complex behavior of
many-body systems at the interface of statistical physics and computer science
including discrete optimization, inference in graphical models, and automated
reasoning. Computing the underlying structure and dynamics of such complex
systems is extremely difficult due to the combinatorial explosion of their
state space. Here, we develop deep generative continuous spin-glass
distributions with normalizing flows to model correlations in generic discrete
problems. We use a self-supervised learning paradigm by automatically
generating the data from the spin-glass itself. We demonstrate that key
physical and computational properties of the spin-glass phase can be
successfully learned, including multi-modal steady-state distributions and
topological structures among metastable states. Remarkably, we observe that the
learning itself corresponds to a spin-glass phase transition within the layers
of the trained normalizing flows. The inverse normalizing flows learns to
perform reversible multi-scale coarse-graining operations which are very
different from the typical irreversible renormalization group techniques.
- Abstract(参考訳): スピングラス(英: spin-glasss)は、統計物理学と計算機科学のインターフェイスにおいて多体系の複雑な挙動を捉えることのできる普遍的なモデルである。
このような複雑な系の基底構造と力学の計算は、状態空間の組合せ爆発のため、非常に困難である。
本稿では,一般化離散問題におけるモデル相関に対する正規化フローを伴う深い生成的連続スピングラス分布を開発する。
スピングラス自体からデータを自動的に生成することにより,自己教師あり学習パラダイムを用いる。
スピングラス相の重要な物理的および計算的性質は,多モード定常状態分布や準安定状態間の位相構造を含む,うまく学習できることを実証する。
注目すべきは、学習そのものがトレーニングされた正規化フローの層内のスピングラス相転移に対応することである。
逆正規化フローは、典型的な可逆的正規化群手法とは大きく異なる可逆的多スケール粗粒化演算を実行するように学習する。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - eXponential FAmily Dynamical Systems (XFADS): Large-scale nonlinear Gaussian state-space modeling [9.52474299688276]
非線形状態空間グラフィカルモデルのための低ランク構造化変分オートエンコーダフレームワークを提案する。
我々のアプローチは、より予測的な生成モデルを学ぶ能力を一貫して示している。
論文 参考訳(メタデータ) (2024-03-03T02:19:49Z) - Learning Latent Dynamics via Invariant Decomposition and
(Spatio-)Temporal Transformers [0.6767885381740952]
本研究では,高次元経験データから力学系を学習する手法を提案する。
我々は、システムの複数の異なるインスタンスからデータが利用できる設定に焦点を当てる。
我々は、単純な理論的分析と、合成および実世界のデータセットに関する広範な実験を通して行動を研究する。
論文 参考訳(メタデータ) (2023-06-21T07:52:07Z) - Autoencoders for discovering manifold dimension and coordinates in data
from complex dynamical systems [0.0]
Autoencoder frameworkは暗黙の正則化と内部線形層と$L$正則化(重崩壊)を組み合わせる
このフレームワークは、状態空間モデリングや予測の応用のために自然に拡張できることを示す。
論文 参考訳(メタデータ) (2023-05-01T21:14:47Z) - DIFFormer: Scalable (Graph) Transformers Induced by Energy Constrained
Diffusion [66.21290235237808]
本稿では,データセットからのインスタンスのバッチを進化状態にエンコードするエネルギー制約拡散モデルを提案する。
任意のインスタンス対間の対拡散強度に対する閉形式最適推定を示唆する厳密な理論を提供する。
各種タスクにおいて優れた性能を有する汎用エンコーダバックボーンとして,本モデルの適用性を示す実験を行った。
論文 参考訳(メタデータ) (2023-01-23T15:18:54Z) - Physics-Inspired Temporal Learning of Quadrotor Dynamics for Accurate
Model Predictive Trajectory Tracking [76.27433308688592]
クオーロタのシステムダイナミクスを正確にモデル化することは、アジャイル、安全、安定したナビゲーションを保証する上で非常に重要です。
本稿では,ロボットの経験から,四重項系の力学を純粋に学習するための新しい物理インスパイアされた時間畳み込みネットワーク(PI-TCN)を提案する。
提案手法は,スパース時間的畳み込みと高密度フィードフォワード接続の表現力を組み合わせて,正確なシステム予測を行う。
論文 参考訳(メタデータ) (2022-06-07T13:51:35Z) - Capturing Actionable Dynamics with Structured Latent Ordinary
Differential Equations [68.62843292346813]
本稿では,その潜在表現内でのシステム入力の変動をキャプチャする構造付き潜在ODEモデルを提案する。
静的変数仕様に基づいて,本モデルではシステムへの入力毎の変動要因を学習し,潜在空間におけるシステム入力の影響を分離する。
論文 参考訳(メタデータ) (2022-02-25T20:00:56Z) - Task-agnostic Continual Learning with Hybrid Probabilistic Models [75.01205414507243]
分類のための連続学習のためのハイブリッド生成識別手法であるHCLを提案する。
フローは、データの配布を学習し、分類を行い、タスクの変更を特定し、忘れることを避けるために使用される。
本研究では,スプリット-MNIST,スプリット-CIFAR,SVHN-MNISTなどの連続学習ベンチマークにおいて,HCLの強い性能を示す。
論文 参考訳(メタデータ) (2021-06-24T05:19:26Z) - Learning Continuous System Dynamics from Irregularly-Sampled Partial
Observations [33.63818978256567]
グラフ構造を持つ多エージェント動的システムをモデル化するための潜在常微分方程式生成モデルLG-ODEを提案する。
高次元軌跡の埋め込みと連続潜伏系力学を同時に学習することができる。
我々のモデルは、教師なしの方法で初期状態を推論できるグラフニューラルネットワークによってパラメータ化された新しいエンコーダを採用している。
論文 参考訳(メタデータ) (2020-11-08T01:02:22Z) - Watch and learn -- a generalized approach for transferrable learning in
deep neural networks via physical principles [0.0]
本研究では,物理状態の異なる統計物理学における問題に対して,完全に伝達可能な学習を実現するための教師なし学習手法を実証する。
逐次ニューラルネットワークに基づくシーケンスモデルを広範囲のディープニューラルネットワークに結合することにより、古典的な統計力学系の平衡確率分布と粒子間相互作用モデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-03-03T18:37:23Z) - Kernel and Rich Regimes in Overparametrized Models [69.40899443842443]
過度にパラメータ化された多層ネットワーク上の勾配勾配は、RKHSノルムではないリッチな暗黙バイアスを誘発できることを示す。
また、より複雑な行列分解モデルと多層非線形ネットワークに対して、この遷移を実証的に示す。
論文 参考訳(メタデータ) (2020-02-20T15:43:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。