論文の概要: Learning Group Structure and Disentangled Representations of Dynamical
Environments
- arxiv url: http://arxiv.org/abs/2002.06991v2
- Date: Sun, 25 Oct 2020 16:23:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-12-31 12:07:59.875556
- Title: Learning Group Structure and Disentangled Representations of Dynamical
Environments
- Title(参考訳): 動的環境の群構造とアンタングル表現の学習
- Authors: Robin Quessard, Thomas D. Barrett, William R. Clements
- Abstract要約: 本稿では,その進化を生成する変換を中心に構築された動的環境の表現を学習するためのフレームワークを提案する。
逐次的相互作用によって生成された観測データから、目立った対称環境の構造を監督せずに学習する。
提案手法は, 高精度な長距離予測を可能にするとともに, 潜伏空間における予測品質と絡み合いの相関関係を示す。
- 参考スコア(独自算出の注目度): 7.4769019455423855
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning disentangled representations is a key step towards effectively
discovering and modelling the underlying structure of environments. In the
natural sciences, physics has found great success by describing the universe in
terms of symmetry preserving transformations. Inspired by this formalism, we
propose a framework, built upon the theory of group representation, for
learning representations of a dynamical environment structured around the
transformations that generate its evolution. Experimentally, we learn the
structure of explicitly symmetric environments without supervision from
observational data generated by sequential interactions. We further introduce
an intuitive disentanglement regularisation to ensure the interpretability of
the learnt representations. We show that our method enables accurate
long-horizon predictions, and demonstrate a correlation between the quality of
predictions and disentanglement in the latent space.
- Abstract(参考訳): 異種表現の学習は、環境の基盤構造を効果的に発見しモデル化するための重要なステップである。
自然科学において、物理学は対称性保存変換の観点から宇宙を記述することで大きな成功を収めた。
この形式主義に触発されて,群表現の理論に基づく枠組みを提案し,その進化を生み出す変換を中心に構成された動的環境の表現を学習する。
実験では,逐次相互作用によって生成された観測データから観察することなく,明示的に対称な環境の構造を学習する。
さらに,学習表現の解釈可能性を確保するために,直観的な異方性規則化を導入する。
本手法は, 高精度な長方形予測を可能にし, 潜在空間における予測品質と絡み合いの関係を示す。
関連論文リスト
- Cross-Model Semantics in Representation Learning [1.2064681974642195]
構造的正則性は、構造的変動の下でより安定な表現幾何学を誘導することを示す。
これは、ある種の帰納バイアスがモデル内の一般化をサポートするだけでなく、モデル間の学習された機能の相互運用性を向上させることを示唆している。
論文 参考訳(メタデータ) (2025-08-05T16:57:24Z) - Understanding Learning Dynamics Through Structured Representations [1.2064681974642195]
本稿では,内部構造的選択が学習システムの振舞いをいかに形作るかを検討する。
これらの構造が勾配流、スペクトル感度、固定点挙動にどのように影響するかを分析する。
固定テンプレートを規定するのではなく、解釈可能な方法で学習行動を操ることのできるトラクタブルデザインの原則を強調します。
論文 参考訳(メタデータ) (2025-08-04T07:15:57Z) - Continuous Representation Methods, Theories, and Applications: An Overview and Perspectives [55.22101595974193]
近年,実世界のデータ固有の構造を特徴付ける新しいパラダイムとして,連続表現法が登場している。
本総説では, 基礎関数表現, 統計モデル, テンソル関数分解, 暗黙的神経表現などの連続表現法設計, (ii) 近似誤差解析, 収束特性, 暗黙的正規化などの連続表現の理論的基礎, (iii) コンピュータビジョン, グラフィックス, バイオインフォマティクス, リモートセンシングなどの連続表現の現実的応用について述べる。
論文 参考訳(メタデータ) (2025-05-21T07:50:19Z) - A Constructive Definition of Space via Dynamical Evolution and Observational Acts [0.0]
静的な背景として空間を前提とするのではなく、観測的行為を通じて生じる創発的実体として空間を解釈する。
このアプローチは、古典的領域と量子的領域の両方における空間概念の観測者に依存し、文脈に敏感な性質を強調する。
論文 参考訳(メタデータ) (2025-05-14T22:39:43Z) - Can Diffusion Models Disentangle? A Theoretical Perspective [52.360881354319986]
本稿では,拡散モデルが非交叉表現を学習する方法を理解するための新しい理論的枠組みを提案する。
我々は、一般的な非絡み付き潜在変数モデルの識別可能性条件を確立し、トレーニング力学を解析し、非絡み付き潜在部分空間モデルのサンプル複雑性境界を導出する。
論文 参考訳(メタデータ) (2025-03-31T20:46:18Z) - Current Symmetry Group Equivariant Convolution Frameworks for Representation Learning [5.802794302956837]
ユークリッドの深層学習はしばしば、表現空間が不規則で複雑な位相で湾曲した実世界の信号に対処するのに不十分である。
我々は、対称性群同変深層学習モデルの重要性と、グラフや3次元形状、非ユークリッド空間における畳み込みのような操作の実現に焦点を当てる。
論文 参考訳(メタデータ) (2024-09-11T15:07:18Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Learning In-between Imagery Dynamics via Physical Latent Spaces [0.7366405857677226]
本稿では,連続した時間ステップで観察される2つの画像間の基礎となるダイナミクスを学習するためのフレームワークを提案する。
偏微分方程式(PDE)で表される物理モデルに従う潜在変数を組み込むことにより,本手法は学習モデルの解釈可能性を保証する。
地質画像データを用いた数値実験により,学習フレームワークの堅牢性と有効性を示す。
論文 参考訳(メタデータ) (2023-10-14T05:14:51Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Provably Learning Object-Centric Representations [25.152680199034215]
我々は、オブジェクト中心の表現がいつ、監督なしに確実に学習できるかを分析する。
そこで本研究では, 基本構造オブジェクト表現が可逆的, 構成的推論モデルによって識別可能であることを証明した。
我々は、既存の対象中心モデルに対して、我々の理論が予測力を持つ証拠を提供する。
論文 参考訳(メタデータ) (2023-05-23T16:44:49Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Unsupervised Learning of Equivariant Structure from Sequences [30.974508897223124]
我々は,少なくとも3つの長さの時系列から対称性を学習するための教師なしのフレームワークを提案する。
当社のフレームワークでは,データセットの非絡み合い構造が副産物として自然に現れることを実証します。
論文 参考訳(メタデータ) (2022-10-12T07:29:18Z) - Robust and Controllable Object-Centric Learning through Energy-based
Models [95.68748828339059]
我々の研究は概念的にシンプルで一般的なアプローチであり、エネルギーベースモデルを通してオブジェクト中心の表現を学習する。
既存のアーキテクチャに容易に統合でき、高品質なオブジェクト中心表現を効果的に抽出できることを示す。
論文 参考訳(メタデータ) (2022-10-11T15:11:15Z) - Image Synthesis via Semantic Composition [74.68191130898805]
本稿では,その意味的レイアウトに基づいて現実的なイメージを合成する新しい手法を提案する。
類似した外観を持つ物体に対して、類似した表現を共有するという仮説が立てられている。
本手法は, 空間的変化と関連表現の両方を生じる, 外観相関による領域間の依存関係を確立する。
論文 参考訳(メタデータ) (2021-09-15T02:26:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。