論文の概要: Group Interventions on Deep Networks for Causal Discovery in Subsystems
- arxiv url: http://arxiv.org/abs/2510.23906v2
- Date: Wed, 29 Oct 2025 13:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 13:34:45.457996
- Title: Group Interventions on Deep Networks for Causal Discovery in Subsystems
- Title(参考訳): サブシステムにおける因果発見のためのディープネットワークへのグループ介入
- Authors: Wasim Ahmad, Joachim Denzler, Maha Shadaydeh,
- Abstract要約: 因果発見は、変数間の複雑な関係、予測の強化、意思決定、現実世界のシステムに対する洞察を明らかにする。
我々は、訓練されたディープニューラルネットワークに対するグループレベルの介入を利用する、新しいマルチグループ因果探索法であるgCDMIを紹介する。
提案手法をシミュレーションデータセット上で評価し,既存手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.239779358333182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery uncovers complex relationships between variables, enhancing predictions, decision-making, and insights into real-world systems, especially in nonlinear multivariate time series. However, most existing methods primarily focus on pairwise cause-effect relationships, overlooking interactions among groups of variables, i.e., subsystems and their collective causal influence. In this study, we introduce gCDMI, a novel multi-group causal discovery method that leverages group-level interventions on trained deep neural networks and employs model invariance testing to infer causal relationships. Our approach involves three key steps. First, we use deep learning to jointly model the structural relationships among groups of all time series. Second, we apply group-wise interventions to the trained model. Finally, we conduct model invariance testing to determine the presence of causal links among variable groups. We evaluate our method on simulated datasets, demonstrating its superior performance in identifying group-level causal relationships compared to existing methods. Additionally, we validate our approach on real-world datasets, including brain networks and climate ecosystems. Our results highlight that applying group-level interventions to deep learning models, combined with invariance testing, can effectively reveal complex causal structures, offering valuable insights for domains such as neuroscience and climate science.
- Abstract(参考訳): 因果発見は、特に非線形多変量時系列において、変数間の複雑な関係、予測の強化、意思決定、現実世界システムへの洞察を明らかにする。
しかしながら、既存のほとんどの手法は、変数のグループ間の相互作用、すなわちサブシステムとその集団因果的影響を見渡す、ペアワイズな因果関係に重点を置いている。
本研究では,訓練された深層ニューラルネットワークに対するグループレベルの介入を活用し,因果関係の推論にモデル不変性テストを用いる,新しい多群因果探索法であるgCDMIを紹介する。
私たちのアプローチには3つの重要なステップがあります。
まず,全時系列群間の構造的関係を協調的にモデル化する。
第二に、訓練されたモデルにグループ的介入を適用する。
最後に、変数群間の因果関係の有無を決定するためにモデル不変性試験を行う。
提案手法は,既存の手法と比較してグループレベルの因果関係を同定する上で,優れた性能を示す。
さらに、我々は、脳ネットワークや気候生態系を含む現実世界のデータセットに対するアプローチを検証する。
この結果から,グループレベルの介入を深層学習モデルに適用し,分散テストと組み合わせることで,複雑な因果構造を効果的に明らかにし,神経科学や気候科学などの分野に有用な洞察を与えることができた。
関連論文リスト
- CLEAR: Causal Learning Framework For Robust Histopathology Tumor Detection Under Out-Of-Distribution Shifts [2.0327514588332996]
病理学におけるドメインシフトは、ディープラーニングモデルの一般化能力に大きな課題をもたらす。
本稿では,共同創設者の影響を緩和しつつ,意味的特徴を活用した因果推論に基づく新しいフレームワークを提案する。
我々はCAMELYON17データセットとプライベートな病理組織学データセットを用いて本手法の有効性を検証し,未確認領域における一貫した性能向上を実証した。
論文 参考訳(メタデータ) (2025-10-16T03:45:31Z) - Revealing Multimodal Causality with Large Language Models [80.95511545591107]
非構造化データからマルチモーダル因果発見のための新しいフレームワークであるMLLM-CDを提案する。
本研究は,(1)真のマルチモーダル因子を同定する新しいコントラッシブ・ファクター発見モジュール,(2)発見要因間の因果関係を推測する統計的因果構造発見モジュール,(3)発見結果を洗練するための反復的マルチモーダル・カウンターファクト・推論モジュールの3つの重要な構成要素から構成される。
論文 参考訳(メタデータ) (2025-09-22T13:45:17Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Online Multi-modal Root Cause Analysis [61.94987309148539]
ルート原因分析(RCA)は、マイクロサービスシステムにおける障害の根本原因の特定に不可欠である。
既存のオンラインRCAメソッドは、マルチモーダルシステムにおける複雑な相互作用を見渡す単一モーダルデータのみを処理する。
OCEANは、根本原因の局在化のための新しいオンラインマルチモーダル因果構造学習手法である。
論文 参考訳(メタデータ) (2024-10-13T21:47:36Z) - Large-Scale Targeted Cause Discovery via Learning from Simulated Data [66.51307552703685]
本稿では,観測結果から対象変数の因果変数を推定する機械学習手法を提案する。
我々は、シミュレートされたデータに基づいて教師あり学習を用いてニューラルネットワークを訓練し、因果関係を推定する。
大規模遺伝子制御ネットワークにおける因果関係の同定に優れた性能を示す実験結果が得られた。
論文 参考訳(メタデータ) (2024-08-29T02:21:11Z) - Task Groupings Regularization: Data-Free Meta-Learning with Heterogeneous Pre-trained Models [83.02797560769285]
Data-Free Meta-Learning (DFML)は、トレーニング済みモデルのコレクションから、元のデータにアクセスせずに知識を抽出することを目的としている。
現在の手法は、事前訓練されたモデル間の不均一性を見落とし、タスクの衝突による性能低下につながることが多い。
論文 参考訳(メタデータ) (2024-05-26T13:11:55Z) - Deep Learning-based Group Causal Inference in Multivariate Time-series [8.073449277052495]
多変量時空の非線形系における因果推論は、変数間の関係の複雑な網を遠ざけるのに役立っている。
本研究では,学習した深層ネットワークに対するグループレベルの介入によるモデルの不変性を検証し,変数群の因果方向を推定する。
論文 参考訳(メタデータ) (2024-01-16T14:19:28Z) - Towards Causal Foundation Model: on Duality between Causal Inference and Attention [18.046388712804042]
治療効果推定のための因果認識基盤モデルの構築に向けて第一歩を踏み出す。
我々はCInA(Causal Inference with Attention)と呼ばれる新しい理論的に正当化された手法を提案する。
論文 参考訳(メタデータ) (2023-10-01T22:28:34Z) - An Operational Perspective to Fairness Interventions: Where and How to
Intervene [9.833760837977222]
フェアネス介入の評価と文脈化のための包括的枠組みを提案する。
予測パリティに関するケーススタディで、我々のフレームワークを実証する。
グループデータを使わずに予測パリティを実現することは困難である。
論文 参考訳(メタデータ) (2023-02-03T07:04:33Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。