論文の概要: Disentangling Dynamical Systems: Causal Representation Learning Meets Local Sparse Attention
- arxiv url: http://arxiv.org/abs/2603.14483v1
- Date: Sun, 15 Mar 2026 17:03:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.837984
- Title: Disentangling Dynamical Systems: Causal Representation Learning Meets Local Sparse Attention
- Title(参考訳): 力学系を遠ざける:局所スパース注意を伴う因果表現学習
- Authors: Markus W. Baumgartner, Anson Lei, Joe Watson, Ingmar Posner,
- Abstract要約: 本稿では,因果表現学習を利用した新たな識別可能性定理を開発し,システムパラメータの不整合表現を明らかにする。
システムのパラメータ同定を変分推論問題としてインスタンス化し、スパーシリティ規則化変換器を用いて状態依存因果構造を解明する。
- 参考スコア(独自算出の注目度): 14.165510655766944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Parametric system identification methods estimate the parameters of explicitly defined physical systems from data. Yet, they remain constrained by the need to provide an explicit function space, typically through a predefined library of candidate functions chosen via available domain knowledge. In contrast, deep learning can demonstrably model systems of broad complexity with high fidelity, but black-box function approximation typically fails to yield explicit descriptive or disentangled representations revealing the structure of a system. We develop a novel identifiability theorem, leveraging causal representation learning, to uncover disentangled representations of system parameters without structural assumptions. We derive a graphical criterion specifying when system parameters can be uniquely disentangled from raw trajectory data, up to permutation and diffeomorphism. Crucially, our analysis demonstrates that global causal structures provide a lower bound on the disentanglement guarantees achievable when considering local state-dependent causal structures. We instantiate system parameter identification as a variational inference problem, leveraging a sparsity-regularised transformer to uncover state-dependent causal structures. We empirically validate our approach across four synthetic domains, demonstrating its ability to recover highly disentangled representations that baselines fail to recover. Corroborating our theoretical analysis, our results confirm that enforcing local causal structure is often necessary for full identifiability.
- Abstract(参考訳): パラメトリックシステム同定法は、データから明確に定義された物理的システムのパラメータを推定する。
しかし、それらは、通常、利用可能なドメイン知識によって選択された候補関数のライブラリを通じて、明示的な関数空間を提供する必要性に制約される。
対照的に、深層学習は、高忠実度で広い複雑性を持つシステムを実証的にモデル化することができるが、ブラックボックス関数近似は通常、システムの構造を明らかにする明示的な記述的あるいは非絡み合った表現を生成することに失敗する。
本研究では,因果表現学習を利用した新しい識別可能性定理を開発し,構造的仮定を伴わずにシステムパラメータの不整合表現を明らかにする。
システムパラメータが生の軌跡データから一意に切り離され、置換や微分同相に至るまでの時間を指定するグラフィカルな基準を導出する。
本分析は,大域的因果構造が局地的状態依存因果構造を考慮した場合,その非絡み合いを低く抑えることを示すものである。
システムのパラメータ同定を変分推論問題としてインスタンス化し、スパーシリティ規則化変換器を用いて状態依存因果構造を解明する。
4つの合成ドメインにまたがるアプローチを実証的に検証し、ベースラインの回復に失敗する高度に絡み合った表現を復元する能力を示す。
理論的解析から, 局所因果構造を強制することが, 完全識別に必要とされることが確認された。
関連論文リスト
- The Powers of Precision: Structure-Informed Detection in Complex Systems -- From Customer Churn to Seizure Onset [11.431576667955268]
先天的な現象(てんかん発作、突然の顧客チャーン、またはパンデミック)は、複雑なシステム内の隠れた因果関係から生じることが多い。
本稿では,システムの潜伏する因果構造を明らかにし,活用するという課題に対処する早期発見のための機械学習手法を提案する。
論文 参考訳(メタデータ) (2026-01-29T02:11:44Z) - Systemic Constraints of Undecidability [0.0]
本稿では,システムの構造的特性としての計算不能を緩和するシステム的不決定性の理論を提案する。
決定不能なシステムの計算に機能的に関与するサブシステムは、その決定不能性を継承する。
我々のフレームワークは、オラクルの模倣を解除し、アーキテクチャの革新によって計算限界を回避できるという見解に挑戦する。
論文 参考訳(メタデータ) (2025-06-21T22:56:26Z) - Detecting and Identifying Selection Structure in Sequential Data [53.24493902162797]
我々は,音楽のシーケンスなどの実践的な状況において,潜在目的に基づくデータポイントの選択的包摂が一般的である,と論じる。
選択構造はパラメトリックな仮定や介入実験なしで識別可能であることを示す。
また、他の種類の依存関係と同様に、選択構造を検知し、識別するための証明可能な正当性アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-29T20:56:34Z) - Nonparametric Partial Disentanglement via Mechanism Sparsity: Sparse
Actions, Interventions and Sparse Temporal Dependencies [58.179981892921056]
この研究は、メカニズムのスパーシティ正則化(英語版)と呼ばれる、アンタングルメントの新たな原理を導入する。
本稿では,潜在要因を同時に学習することで,絡み合いを誘発する表現学習手法を提案する。
学習した因果グラフをスパースに規則化することにより、潜伏因子を復元できることを示す。
論文 参考訳(メタデータ) (2024-01-10T02:38:21Z) - Identifiability and Asymptotics in Learning Homogeneous Linear ODE Systems from Discrete Observations [114.17826109037048]
通常の微分方程式(ODE)は、機械学習において最近多くの注目を集めている。
理論的な側面、例えば、統計的推定の識別可能性と特性は、いまだに不明である。
本稿では,1つの軌道からサンプリングされた等間隔の誤差のない観測結果から,同次線形ODE系の同定可能性について十分な条件を導出する。
論文 参考訳(メタデータ) (2022-10-12T06:46:38Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - On Linear Identifiability of Learned Representations [26.311880922890843]
表現学習の文脈における識別可能性について検討する。
微分モデルの大きな族は、函数空間において、線形不確定性まで識別可能であることを示す。
我々は,線形識別可能性の十分な条件を導出し,実世界のシミュレーションデータと実世界のデータの両方で結果に対する実証的支援を提供する。
論文 参考訳(メタデータ) (2020-07-01T23:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。