論文の概要: Diverse Influence Component Analysis: A Geometric Approach to Nonlinear Mixture Identifiability
- arxiv url: http://arxiv.org/abs/2510.17040v2
- Date: Tue, 21 Oct 2025 02:36:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.93591
- Title: Diverse Influence Component Analysis: A Geometric Approach to Nonlinear Mixture Identifiability
- Title(参考訳): 様々な影響成分分析:非線形混合識別可能性に対する幾何学的アプローチ
- Authors: Hoang-Son Nguyen, Xiao Fu,
- Abstract要約: 未知の非線形混合物からの潜在成分同定は、機械学習の基本的な課題である。
本稿では,混合関数ヤコビアンの凸幾何学を利用するフレームワークであるDiverse Influence Component Analysis (DICA)を紹介する。
本稿では,ジャコビアン体積最大化(J-VolMax)基準を提案する。
- 参考スコア(独自算出の注目度): 9.196049313934472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Latent component identification from unknown nonlinear mixtures is a foundational challenge in machine learning, with applications in tasks such as disentangled representation learning and causal inference. Prior work in nonlinear independent component analysis (nICA) has shown that auxiliary signals -- such as weak supervision -- can support identifiability of conditionally independent latent components. More recent approaches explore structural assumptions, e.g., sparsity in the Jacobian of the mixing function, to relax such requirements. In this work, we introduce Diverse Influence Component Analysis (DICA), a framework that exploits the convex geometry of the mixing function's Jacobian. We propose a Jacobian Volume Maximization (J-VolMax) criterion, which enables latent component identification by encouraging diversity in their influence on the observed variables. Under reasonable conditions, this approach achieves identifiability without relying on auxiliary information, latent component independence, or Jacobian sparsity assumptions. These results extend the scope of identifiability analysis and offer a complementary perspective to existing methods.
- Abstract(参考訳): 未知の非線形混合物からの潜在成分同定は機械学習の基本的な課題であり、非絡み合い表現学習や因果推論といったタスクに応用される。
非線形独立成分分析(nICA)における以前の研究は、弱い監督のような補助信号が条件付き独立潜伏成分の識別性をサポートすることを示した。
より最近のアプローチでは、例えば混合関数のヤコビアンにおける空間性という構造的仮定を探求し、そのような要求を緩和する。
本稿では,混合関数ヤコビアンの凸幾何学を利用するフレームワークであるDiverse Influence Component Analysis (DICA)を紹介する。
本稿では,ジャコビアン体積最大化(J-VolMax)基準を提案する。
妥当な条件下では、このアプローチは補助情報、潜伏成分独立性、ジャコビアン空間性仮定に頼ることなく識別可能性を達成する。
これらの結果は、識別可能性分析の範囲を広げ、既存の手法を補完する視点を提供する。
関連論文リスト
- Robustness of Nonlinear Representation Learning [60.15898117103069]
本研究では,教師なし表現学習の問題を,わずかに不特定な環境で研究する。
混合は線形変換と小さな誤差で識別可能であることを示す。
これらの結果は、実世界のデータに対する教師なし表現学習における識別可能性向上へのステップである。
論文 参考訳(メタデータ) (2025-03-19T15:57:03Z) - Provable Subspace Identification Under Post-Nonlinear Mixtures [11.012445089716016]
非自明な混合学習は、線形または非線形に混合された潜在成分を盲目的に識別することを目的としている。
この研究は、慎重に設計された基準の下で、基礎となる混合系に付随するヌル空間が未知の非線形性の識別と除去を保証するのに十分であることを示している。
論文 参考訳(メタデータ) (2022-10-14T05:26:40Z) - On the Identifiability of Nonlinear ICA: Sparsity and Beyond [20.644375143901488]
自明な不確定点を特定できる非線形ICAモデルをいかにして特定させるかは、教師なし学習における長年の問題である。
最近のブレークスルーは、いくつかの補助変数が与えられた条件付き独立としてソースの標準独立仮定を再構成する。
このような制約の特定のインスタンス化の下では、独立潜水源はそれらの非線形混合から置換まで同定できることを示す。
論文 参考訳(メタデータ) (2022-06-15T18:24:22Z) - On Finite-Sample Identifiability of Contrastive Learning-Based Nonlinear
Independent Component Analysis [11.012445089716016]
この研究は GCL ベースの nICA の有限サンプル識別可能性解析を行う。
本フレームワークは, GCL損失関数の特性, 統計解析, 数値微分を加味したものである。
論文 参考訳(メタデータ) (2022-06-14T04:59:08Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - Nonlinear Independent Component Analysis for Continuous-Time Signals [85.59763606620938]
このプロセスの混合物の観察から多次元音源過程を復元する古典的問題を考察する。
このリカバリは、この混合物が十分に微分可能で可逆な関数によって与えられる場合、多くの一般的なプロセスのモデル(座標の順序と単調スケーリングまで)に対して可能であることを示す。
論文 参考訳(メタデータ) (2021-02-04T20:28:44Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Nonlinear ISA with Auxiliary Variables for Learning Speech
Representations [51.9516685516144]
補助変数の存在下では非線型独立部分空間解析(ISA)の理論的枠組みを導入する。
部分空間が独立な教師なし音声表現を学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-25T14:53:09Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。