論文の概要: Inverse Learning of Symmetries
- arxiv url: http://arxiv.org/abs/2002.02782v2
- Date: Thu, 22 Oct 2020 14:46:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 03:51:20.830866
- Title: Inverse Learning of Symmetries
- Title(参考訳): 対称性の逆学習
- Authors: Mario Wieser, Sonali Parbhoo, Aleksander Wieczorek, Volker Roth
- Abstract要約: 2つの潜在部分空間からなるモデルで対称性変換を学ぶ。
我々のアプローチは、情報ボトルネックと連続的な相互情報正規化器の組み合わせに基づいています。
我々のモデルは, 人工的および分子的データセットにおける最先端の手法より優れている。
- 参考スコア(独自算出の注目度): 71.62109774068064
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Symmetry transformations induce invariances which are frequently described
with deep latent variable models. In many complex domains, such as the chemical
space, invariances can be observed, yet the corresponding symmetry
transformation cannot be formulated analytically. We propose to learn the
symmetry transformation with a model consisting of two latent subspaces, where
the first subspace captures the target and the second subspace the remaining
invariant information. Our approach is based on the deep information bottleneck
in combination with a continuous mutual information regulariser. Unlike
previous methods, we focus on the challenging task of minimising mutual
information in continuous domains. To this end, we base the calculation of
mutual information on correlation matrices in combination with a bijective
variable transformation. Extensive experiments demonstrate that our model
outperforms state-of-the-art methods on artificial and molecular datasets.
- Abstract(参考訳): 対称性変換は、深い潜伏変数モデルでしばしば記述される不変性を引き起こす。
化学空間のような多くの複雑な領域では、不変性は観測できるが、対応する対称性変換は解析的に定式化することはできない。
まず, 2つの潜在部分空間からなるモデルを用いて対称性変換を学習し, 1つ目の部分空間が対象を捉え, 2番目の部分空間が残りの不変情報を取り込む。
本手法は,連続的な相互情報レギュラーと組み合わせた深層情報ボトルネックに基づく。
従来の手法とは異なり、連続ドメインにおける相互情報の最小化という課題に焦点を当てる。
この目的のために、相関行列の相互情報の計算と、客観的変数変換を組み合わせて基礎とする。
広範な実験により,本モデルが人工および分子データセットの最先端手法よりも優れていることが証明された。
関連論文リスト
- Learning Infinitesimal Generators of Continuous Symmetries from Data [15.42275880523356]
1-パラメータ群で定義された変換に基づく新しい対称性学習アルゴリズムを提案する。
この手法は最小限の帰納バイアスに基づいて構築され、リー群に根付いた一般的な対称性だけでなく、非線形発生器由来の対称性にまで拡張される。
論文 参考訳(メタデータ) (2024-10-29T08:28:23Z) - Unsupervised Representation Learning from Sparse Transformation Analysis [79.94858534887801]
本稿では,潜在変数のスパース成分への変換を分解し,シーケンスデータから表現を学習することを提案する。
入力データは、まず潜伏活性化の分布として符号化され、その後確率フローモデルを用いて変換される。
論文 参考訳(メタデータ) (2024-10-07T23:53:25Z) - Latent Space Symmetry Discovery [31.28537696897416]
本稿では,非線形群作用の対称性を発見できる新しい生成モデルであるLatent LieGANを提案する。
本モデルでは,群作用に関する条件下で非線形対称性を表現できることが示されている。
LaLiGANはまた、方程式発見や長期予測を含む下流のタスクに有用な構造化された潜在空間をもたらす。
論文 参考訳(メタデータ) (2023-09-29T19:33:01Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Oracle-Preserving Latent Flows [58.720142291102135]
我々はラベル付きデータセット全体にわたって複数の非自明な連続対称性を同時に発見するための方法論を開発する。
対称性変換と対応するジェネレータは、特別に構築された損失関数で訓練された完全連結ニューラルネットワークでモデル化される。
この研究における2つの新しい要素は、縮小次元の潜在空間の使用と、高次元のオラクルに関して不変な変換への一般化である。
論文 参考訳(メタデータ) (2023-02-02T00:13:32Z) - Counting Phases and Faces Using Bayesian Thermodynamic Integration [77.34726150561087]
本稿では,2パラメータ統計力学系における熱力学関数と位相境界の再構成手法を提案する。
提案手法を用いて,IsingモデルとTASEPの分割関数と位相図を正確に再構成する。
論文 参考訳(メタデータ) (2022-05-18T17:11:23Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Tensor Component Analysis for Interpreting the Latent Space of GANs [41.020230946351816]
本稿では,GANの潜在空間における解釈可能な方向を求める問題に対処する。
提案手法では,テンソルの個々のモードに対応する線形編集と,それらの間の乗法的相互作用をモデル化する非線形編集が可能である。
実験により, 前者は幾何に基づく変換から, 後者は拡張可能な変換を生成できることを示す。
論文 参考訳(メタデータ) (2021-11-23T09:14:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。