論文の概要: Measure-Theoretic Anti-Causal Representation Learning
- arxiv url: http://arxiv.org/abs/2510.18052v1
- Date: Thu, 16 Oct 2025 22:13:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.543294
- Title: Measure-Theoretic Anti-Causal Representation Learning
- Title(参考訳): 測定理論による反因果表現学習
- Authors: Arman Behnam, Binghui Wang,
- Abstract要約: 反因果設定(ラベルは逆ではなく特徴を引き起こす)における因果表現学習は、固有の課題を提示する。
本稿では,反因果表現学習のための新しい測度理論フレームワークである反因果不変抽象化(ACIA)を提案する。
ACIAは2段階の設計を採用し、低レベルの表現はラベルがどのように観測を生成しているかを捉え、高レベルの表現は環境固有のバリエーションを越えて安定した因果パターンを学習する。
- 参考スコア(独自算出の注目度): 29.12751904333385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal representation learning in the anti-causal setting (labels cause features rather than the reverse) presents unique challenges requiring specialized approaches. We propose Anti-Causal Invariant Abstractions (ACIA), a novel measure-theoretic framework for anti-causal representation learning. ACIA employs a two-level design, low-level representations capture how labels generate observations, while high-level representations learn stable causal patterns across environment-specific variations. ACIA addresses key limitations of existing approaches by accommodating prefect and imperfect interventions through interventional kernels, eliminating dependency on explicit causal structures, handling high-dimensional data effectively, and providing theoretical guarantees for out-of-distribution generalization. Experiments on synthetic and real-world medical datasets demonstrate that ACIA consistently outperforms state-of-the-art methods in both accuracy and invariance metrics. Furthermore, our theoretical results establish tight bounds on performance gaps between training and unseen environments, confirming the efficacy of our approach for robust anti-causal learning.
- Abstract(参考訳): 反因果的設定における因果的表現学習(ラベルは逆ではなく特徴を引き起こす)は、特殊なアプローチを必要とする固有の課題を提示する。
本稿では,反因果表現学習のための新しい測度理論フレームワークである反因果不変抽象化(ACIA)を提案する。
ACIAは2段階の設計を採用し、低レベルの表現はラベルがどのように観測を生成しているかを捉え、高レベルの表現は環境固有のバリエーションを越えて安定した因果パターンを学習する。
ACIAは、介入カーネルを通じて完全かつ不完全な介入を調節し、明示的な因果構造への依存を排除し、高次元データを効果的に処理し、アウト・オブ・ディストリビューションの一般化に関する理論的保証を提供することによって、既存のアプローチの重要な制限に対処する。
合成および実世界の医療データセットの実験では、AICは精度と不変性の両方で最先端の手法を一貫して上回っている。
さらに,本研究の理論的結果は,学習環境と未確認環境とのパフォーマンスギャップの厳密な境界を定め,堅牢な反因果学習へのアプローチの有効性を確認した。
関連論文リスト
- Understanding Catastrophic Interference: On the Identifibility of Latent Representations [67.05452287233122]
破滅的な干渉、あるいは破滅的な忘れ(Caastrophic forgetting)は、機械学習の根本的な課題である。
本稿では,破滅的干渉を識別問題として定式化する新しい理論枠組みを提案する。
我々のアプローチは、合成データセットとベンチマークデータセットの両方で理論的保証と実用的なパフォーマンスの改善を提供する。
論文 参考訳(メタデータ) (2025-09-27T00:53:32Z) - Contrastive Representation Modeling for Anomaly Detection [0.21427777919040417]
本研究では,学習中の正と負の関係を再定義し,これらの特性を明示的な異常ラベルを必要とせずに促進する構造的コントラスト目的を提案する。
本フレームワークは, 産業環境における局所的異常の検出を改善するために, パッチベースの学習評価戦略を用いて拡張する。
論文 参考訳(メタデータ) (2025-01-09T10:33:16Z) - Adaptive Gradient Clipping for Robust Federated Learning [8.268485501864939]
本稿では,適応型クリッピング戦略である適応ロバストクリッピング(ARC)を提案し,入力勾配に基づいて動的にクリッピング閾値を調整する。
ARCは、特に高度に異質で対向的な設定において、ロバスト性を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-23T11:00:31Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z) - Adversarial Distributional Training for Robust Deep Learning [53.300984501078126]
逆行訓練(AT)は、逆行例によるトレーニングデータを増やすことにより、モデルロバスト性を改善する最も効果的な手法の一つである。
既存のAT手法の多くは、敵の例を作らせるために特定の攻撃を採用しており、他の目に見えない攻撃に対する信頼性の低い堅牢性につながっている。
本稿では,ロバストモデル学習のための新しいフレームワークであるADTを紹介する。
論文 参考訳(メタデータ) (2020-02-14T12:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。