論文の概要: Robust Causal Discovery under Imperfect Structural Constraints
- arxiv url: http://arxiv.org/abs/2511.06790v1
- Date: Mon, 10 Nov 2025 07:27:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.134652
- Title: Robust Causal Discovery under Imperfect Structural Constraints
- Title(参考訳): 不完全な構造制約下におけるロバスト因果発見
- Authors: Zidong Wang, Xi Lin, Chuchao He, Xiaoguang Gao,
- Abstract要約: 既存のメソッドは、通常、完全な事前を前提とするか、特定の特定されたエラータイプしか処理できない。
我々は,事前調整と紛争解決を通じて知識とデータを調和させることを提案する。
提案手法は線形設定と非線形設定の両方に対して堅牢である。
- 参考スコア(独自算出の注目度): 8.625591212176769
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust causal discovery from observational data under imperfect prior knowledge remains a significant and largely unresolved challenge. Existing methods typically presuppose perfect priors or can only handle specific, pre-identified error types. And their performance degrades substantially when confronted with flawed constraints of unknown location and type. This decline arises because most of them rely on inflexible and biased thresholding strategies that may conflict with the data distribution. To overcome these limitations, we propose to harmonizes knowledge and data through prior alignment and conflict resolution. First, we assess the credibility of imperfect structural constraints through a surrogate model, which then guides a sparse penalization term measuring the loss between the learned and constrained adjacency matrices. We theoretically prove that, under ideal assumption, the knowledge-driven objective aligns with the data-driven objective. Furthermore, to resolve conflicts when this assumption is violated, we introduce a multi-task learning framework optimized via multi-gradient descent, jointly minimizing both objectives. Our proposed method is robust to both linear and nonlinear settings. Extensive experiments, conducted under diverse noise conditions and structural equation model types, demonstrate the effectiveness and efficiency of our method under imperfect structural constraints.
- Abstract(参考訳): 不完全な事前知識の下で観測データからロバストな因果発見は重要な課題であり、未解決の課題である。
既存のメソッドは、通常、完全な事前を前提とするか、特定の特定されたエラータイプしか処理できない。
そして、そのパフォーマンスは、未知の場所とタイプの制約に直面すると大幅に低下します。
この減少は、データ分布と矛盾する可能性のある、柔軟性のない偏りのあるしきい値戦略に依存しているためである。
これらの制限を克服するため、我々は事前のアライメントとコンフリクト解決を通じて知識とデータを調和させることを提案する。
まず,不完全な構造的制約の信頼性を代理モデルを用いて評価し,学習行列と制約行列の間の損失を計測するスパースペナル化項を導出する。
理論的には、理想的な仮定の下では、知識駆動の目的がデータ駆動の目的と一致していることを証明する。
さらに,この仮定に反した場合の対立を解決するために,多段階の降下によって最適化されたマルチタスク学習フレームワークを導入し,両目的を共同で最小化する。
提案手法は線形設定と非線形設定の両方に対して堅牢である。
各種騒音条件と構造方程式モデルを用いた大規模実験により,不完全な構造制約下での手法の有効性と効率を実証した。
関連論文リスト
- Improving Group Robustness on Spurious Correlation via Evidential Alignment [26.544938760265136]
ディープニューラルネットワークは、しばしば急激な相関、すなわち非因果的特徴と標的の間の表面的関連を学習し、依存する。
既存のメソッドは通常、外部のグループアノテーションや補助的な決定論的モデルを使用することでこの問題を軽減する。
偏りのあるモデルの振る舞いを理解するために不確実性定量化を利用する新しいフレームワークであるエビデンシャルアライメントを提案する。
論文 参考訳(メタデータ) (2025-06-12T22:47:21Z) - Preference Learning for AI Alignment: a Causal Perspective [55.2480439325792]
私たちはこの問題を因果パラダイムに枠組み化し、永続的な課題を特定するための因果関係の豊富なツールボックスを提供します。
因果推論の文献を継承し、信頼性の高い一般化に必要な重要な仮定を特定する。
そこで本研究では, 因果関係に基づくアプローチがモデルロバスト性をいかに改善するかを, ナイーブ報酬モデルの障害モードを例示する。
論文 参考訳(メタデータ) (2025-06-06T10:45:42Z) - TrustLoRA: Low-Rank Adaptation for Failure Detection under Out-of-distribution Data [62.22804234013273]
本稿では,共変量および意味的シフトの両条件下での拒絶による分類を統一し,促進する,単純な故障検出フレームワークを提案する。
キーとなる洞察は、障害固有の信頼性知識を低ランクアダプタで分離し、統合することにより、障害検出能力を効果的かつ柔軟に向上できるということです。
論文 参考訳(メタデータ) (2025-04-20T09:20:55Z) - Understanding Robust Overfitting from the Feature Generalization Perspective [61.770805867606796]
逆行訓練(AT)は、逆行摂動を自然データに組み込むことで、堅牢なニューラルネットワークを構築する。
これはロバストオーバーフィッティング(RO)の問題に悩まされ、モデルのロバスト性を著しく損なう。
本稿では,新しい特徴一般化の観点からROを考察する。
論文 参考訳(メタデータ) (2023-10-01T07:57:03Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Mitigating Prior Errors in Causal Structure Learning: A Resilient Approach via Bayesian Networks [26.611593049558405]
因果構造学習(英: Causal Structure Learning, CSL)は、変数間の因果関係を符号化する手法である。
従来の知識に基づく現在の手法では、事前の誤りに対する耐性が制限されている。
我々は,CSLのエッジレベルの事前エラーに耐性を持つ戦略を提案し,人間の介入を最小限に抑える。
論文 参考訳(メタデータ) (2023-06-12T11:24:48Z) - Accounting for Model Uncertainty in Algorithmic Discrimination [16.654676310264705]
フェアネスアプローチは、モデルの不確実性に起因するエラーの均等化にのみ焦点をあてるべきである。
予測多重性とモデル不確実性の間に関係をもち、予測多重性からの手法がモデル不確実性に起因するエラーの特定に使用できると主張する。
論文 参考訳(メタデータ) (2021-05-10T10:34:12Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z) - Decomposed Adversarial Learned Inference [118.27187231452852]
我々は,DALI(Decomposed Adversarial Learned Inference)という新しいアプローチを提案する。
DALIは、データ空間とコード空間の両方の事前および条件分布を明示的に一致させる。
MNIST, CIFAR-10, CelebAデータセットにおけるDALIの有効性を検証する。
論文 参考訳(メタデータ) (2020-04-21T20:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。