論文の概要: Invariant Structure Learning for Better Generalization and Causal
Explainability
- arxiv url: http://arxiv.org/abs/2206.06469v1
- Date: Mon, 13 Jun 2022 21:04:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:17:26.196691
- Title: Invariant Structure Learning for Better Generalization and Causal
Explainability
- Title(参考訳): 不変構造学習による一般化と因果説明可能性の向上
- Authors: Yunhao Ge, Sercan \"O. Arik, Jinsung Yoon, Ao Xu, Laurent Itti, Tomas
Pfister
- Abstract要約: 因果構造発見を改善するための新しいフレームワークである不変構造学習(ISL)を提案する。
ISLはデータを異なる環境に分割し、異なる環境にわたってターゲットに不変な構造を学ぶ。
我々は、ISLが因果構造を正確に発見し、代替手法より優れ、大きな分布シフトを持つデータセットに対して優れた一般化をもたらすことを示した。
- 参考スコア(独自算出の注目度): 44.580704853704994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the causal structure behind data is invaluable for improving
generalization and obtaining high-quality explanations. We propose a novel
framework, Invariant Structure Learning (ISL), that is designed to improve
causal structure discovery by utilizing generalization as an indication. ISL
splits the data into different environments, and learns a structure that is
invariant to the target across different environments by imposing a consistency
constraint. An aggregation mechanism then selects the optimal classifier based
on a graph structure that reflects the causal mechanisms in the data more
accurately compared to the structures learnt from individual environments.
Furthermore, we extend ISL to a self-supervised learning setting where accurate
causal structure discovery does not rely on any labels. This self-supervised
ISL utilizes invariant causality proposals by iteratively setting different
nodes as targets. On synthetic and real-world datasets, we demonstrate that ISL
accurately discovers the causal structure, outperforms alternative methods, and
yields superior generalization for datasets with significant distribution
shifts.
- Abstract(参考訳): データの背後にある因果構造を学ぶことは、一般化を改善し、高品質な説明を得るのに有用である。
本稿では,一般化を指標として因果構造発見を改善するための新しい枠組みである不変構造学習(isl)を提案する。
ISLはデータを異なる環境に分割し、一貫性の制約を課すことで、異なる環境にわたってターゲットに不変な構造を学ぶ。
集約機構は、個々の環境から学習した構造よりもデータの因果メカニズムをより正確に反映するグラフ構造に基づいて最適な分類器を選択する。
さらに,正確な因果構造発見がラベルに依存しない自己教師型学習環境にISLを拡張した。
この自己監督型ISLは、異なるノードをターゲットとして反復的に設定することで、不変因果提案を利用する。
合成および実世界のデータセットにおいて、ISLは因果構造を正確に発見し、代替手法より優れ、大きな分布シフトを持つデータセットに対して優れた一般化をもたらすことを示す。
関連論文リスト
- Structural Entropy Guided Probabilistic Coding [52.01765333755793]
構造エントロピー誘導型確率的符号化モデルSEPCを提案する。
我々は、構造エントロピー正規化損失を提案することにより、潜在変数間の関係を最適化に組み込む。
分類タスクと回帰タスクの両方を含む12の自然言語理解タスクに対する実験結果は、SEPCの優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-12T00:37:53Z) - DeCaf: A Causal Decoupling Framework for OOD Generalization on Node Classification [14.96980804513399]
グラフニューラルネットワーク(GNN)は、分散シフトの影響を受けやすいため、クリティカルドメインの脆弱性やセキュリティ上の問題が発生する。
不変(機能、構造)-ラベルマッピングの学習を目標とする既存の方法は、データ生成プロセスに関する過度に単純化された仮定に依存することが多い。
構造因果モデル(SCM)を用いたより現実的なグラフデータ生成モデルを提案する。
本稿では,非バイアスな特徴ラベルと構造ラベルのマッピングを独立に学習する,カジュアルなデカップリングフレームワークDeCafを提案する。
論文 参考訳(メタデータ) (2024-10-27T00:22:18Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Structured Language Generation Model for Robust Structure Prediction [6.4736137270915215]
損失校正・復号法における手法を用いて,シーケンス・ツー・シーケンスの問題を分類問題に還元するフレームワークを提案する。
実験結果から,SLGMはデータセット情報を明示せずに,データセット固有の微調整を追従し,置き換えることが可能であることが示唆された。
論文 参考訳(メタデータ) (2024-02-14T06:33:22Z) - iSCAN: Identifying Causal Mechanism Shifts among Nonlinear Additive
Noise Models [48.33685559041322]
本稿では,同一変数集合上の2つ以上の関連するデータセットにおける因果メカニズムシフトの同定に焦点をあてる。
提案手法を実装したコードはオープンソースであり、https://github.com/kevinsbello/iSCAN.comで公開されている。
論文 参考訳(メタデータ) (2023-06-30T01:48:11Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - Structure-Aware Feature Generation for Zero-Shot Learning [108.76968151682621]
潜在空間と生成ネットワークの両方を学習する際の位相構造を考慮し,SA-GANと呼ばれる新しい構造認識特徴生成手法を提案する。
本手法は,未確認クラスの一般化能力を大幅に向上させ,分類性能を向上させる。
論文 参考訳(メタデータ) (2021-08-16T11:52:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。