論文の概要: Disentanglement by means of action-induced representations
- arxiv url: http://arxiv.org/abs/2602.06741v1
- Date: Fri, 06 Feb 2026 14:42:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.425099
- Title: Disentanglement by means of action-induced representations
- Title(参考訳): 行動誘発表現による絡み合い
- Authors: Gorka Muñoz-Gil, Hendrik Poulsen Nautrup, Arunava Majumder, Paulin de Schoulepnikoff, Florian Fürrutter, Marius Krumm, Hans J. Briegel,
- Abstract要約: 実験(または行動)を行う物理系の表現をモデル化する行動誘発表現(AIR)の枠組みを紹介する。
我々は、この枠組みにおいて、その行動依存度において、確実に自由度を乱すことができることを示した。
さらに、AIRを抽出し、標準のVAEが故障した場合に証明可能なアンタングル化を実現する可変AIRアーキテクチャ(VAIR)を導入する。
- 参考スコア(独自算出の注目度): 0.4858212893290672
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Learning interpretable representations with variational autoencoders (VAEs) is a major goal of representation learning. The main challenge lies in obtaining disentangled representations, where each latent dimension corresponds to a distinct generative factor. This difficulty is fundamentally tied to the inability to perform nonlinear independent component analysis. Here, we introduce the framework of action-induced representations (AIRs) which models representations of physical systems given experiments (or actions) that can be performed on them. We show that, in this framework, we can provably disentangle degrees of freedom w.r.t. their action dependence. We further introduce a variational AIR architecture (VAIR) that can extract AIRs and therefore achieve provable disentanglement where standard VAEs fail. Beyond state representation, VAIR also captures the action dependence of the underlying generative factors, directly linking experiments to the degrees of freedom they influence.
- Abstract(参考訳): 可変オートエンコーダ(VAE)を用いた解釈可能な表現の学習は、表現学習の大きな目標である。
主な課題は、各潜伏次元が別個の生成因子に対応する非交叉表現を得ることである。
この難しさは、非線形独立成分分析を行うことができないことに根本的に結びついている。
本稿では,物理系の表現をモデルとした行動誘発表現(AIR)の枠組みについて紹介する。
我々は、この枠組みにおいて、その行動依存度において、確実に自由度を歪めることができることを示した。
さらに、AIRを抽出し、標準のVAEが故障した場合に証明可能なアンタングル化を実現する可変AIRアーキテクチャ(VAIR)を導入する。
状態表現以外にも、VAIRは基礎となる生成因子の作用依存を捉え、実験を彼らが影響する自由度に直接リンクする。
関連論文リスト
- Sequential Representation Learning via Static-Dynamic Conditional Disentanglement [58.19137637859017]
本稿では,ビデオ中の時間非依存要因と時間変化要因を分離することに着目し,逐次的データ内での自己教師付き不整合表現学習について検討する。
本稿では,静的/動的変数間の因果関係を明示的に考慮し,それらの因子間の通常の独立性仮定を破る新しいモデルを提案する。
実験により、提案手法は、シーンのダイナミックスが内容に影響されるシナリオにおいて、従来の複雑な最先端技術よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-08-10T17:04:39Z) - Marrying Causal Representation Learning with Dynamical Systems for Science [20.370707645572676]
因果表現学習は、生の絡み合った測定から隠れた因果変数に因果モデルを拡張することを約束する。
本稿では,2つの仮定とそれらの重要な仮定との間に明確な関係を描いている。
我々は、より下流のタスクに対して、軌跡固有のパラメータを分離する制御可能なモデルを明示的に学習する。
論文 参考訳(メタデータ) (2024-05-22T18:00:41Z) - Flow Factorized Representation Learning [109.51947536586677]
本稿では、異なる入力変換を定義する潜在確率パスの別個のセットを規定する生成モデルを提案する。
本モデルは,ほぼ同変モデルに近づきながら,標準表現学習ベンチマークにおいて高い確率を達成することを示す。
論文 参考訳(メタデータ) (2023-09-22T20:15:37Z) - Causal Flow-based Variational Auto-Encoder for Disentangled Causal Representation Learning [1.4875602190483512]
遠方表現学習は、各次元が基礎となる生成因子に対応する表現を学習することを目的としている。
因果フローを表現学習プロセスに統合する新しい教師付きVAEフレームワークであるDisentangled Causal Variational Auto-Encoder (DCVAE)を提案する。
我々は,合成データセットと実世界のデータセットの両方でDCVAEを評価し,因果解離と介入実験における優れた能力を示した。
論文 参考訳(メタデータ) (2023-04-18T14:26:02Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。