論文の概要: Toward Falsifying Causal Graphs Using a Permutation-Based Test
- arxiv url: http://arxiv.org/abs/2305.09565v1
- Date: Tue, 16 May 2023 16:02:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 14:11:20.674602
- Title: Toward Falsifying Causal Graphs Using a Permutation-Based Test
- Title(参考訳): 置換型テストによる因果グラフの改ざん
- Authors: Elias Eulig, Atalanti A. Mastakouri, Patrick Bl\"obaum, Michaela
Hardt, Dominik Janzing
- Abstract要約: 既存のメトリクスは、グラフと観測データの間に絶対的な数の不整合を提供します。
本稿では,ノード置換によるサロゲートベースラインの構築により,新しい整合性指標を提案する。
代理基底線上のものとの不整合の数を比較することにより、解釈可能な計量を導出する。
- 参考スコア(独自算出の注目度): 10.885596886578119
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding the causal relationships among the variables of a system is
paramount to explain and control its behaviour. Inferring the causal graph from
observational data without interventions, however, requires a lot of strong
assumptions that are not always realistic. Even for domain experts it can be
challenging to express the causal graph. Therefore, metrics that quantitatively
assess the goodness of a causal graph provide helpful checks before using it in
downstream tasks. Existing metrics provide an absolute number of
inconsistencies between the graph and the observed data, and without a
baseline, practitioners are left to answer the hard question of how many such
inconsistencies are acceptable or expected. Here, we propose a novel
consistency metric by constructing a surrogate baseline through node
permutations. By comparing the number of inconsistencies with those on the
surrogate baseline, we derive an interpretable metric that captures whether the
DAG fits significantly better than random. Evaluating on both simulated and
real data sets from various domains, including biology and cloud monitoring, we
demonstrate that the true DAG is not falsified by our metric, whereas the wrong
graphs given by a hypothetical user are likely to be falsified.
- Abstract(参考訳): システムの変数間の因果関係を理解することは、その振る舞いを説明し制御することが最重要である。
しかし、介入なしに観測データから因果グラフを推定するには、必ずしも現実的ではない多くの強い仮定が必要である。
ドメインの専門家であっても、因果グラフを表現することは難しい。
したがって、因果グラフの良否を定量的に評価する指標は、下流タスクでそれを使用する前に有用なチェックを提供する。
既存のメトリクスは、グラフと観測データの間に絶対的な数の不整合をもたらし、ベースラインなしでは、そのような不整合がどの程度受け入れられるか、期待されているかという難しい疑問に答える。
本稿では,ノード置換によるサロゲートベースライン構築による新しい一貫性尺度を提案する。
不整合の数をサロゲートベースラインと比較することにより、DAGがランダムに適合するかどうかを推定する解釈可能な計量を導出する。
生物学やクラウドモニタリングなど,さまざまな領域のシミュレーションデータと実データの両方を評価することで,真のDAGが我々の測定値によってファルシフィケートされない一方で,仮説上のユーザによって与えられる誤ったグラフがファルシフィケートされる可能性が示唆された。
関連論文リスト
- Graph Counterfactual Explainable AI via Latent Space Traversal [4.337339380445765]
反実的な説明は、分配の代替入力の「アレスト」を見つけることによって予測を説明することを目的としている。
本稿では, 識別可能なブラックボックスグラフ分類器に対して, 反実的説明を生成する手法を提案する。
我々は3つのグラフデータセットに対するアプローチを実証的に検証し、我々のモデルはベースラインよりも一貫してハイパフォーマンスで堅牢であることを示した。
論文 参考訳(メタデータ) (2025-01-15T15:04:10Z) - False Discovery Rate Control for Gaussian Graphical Models via
Neighborhood Screening [1.7924920920347915]
グラフ学習におけるノードワイズ変数の選択手法を導入し、選択したエッジセットの誤り発見率を自己推定レベルで確実に制御する。
個々の近傍の新たな融合法は、無向グラフ推定を出力する。
論文 参考訳(メタデータ) (2024-01-18T13:46:41Z) - Rethinking Explaining Graph Neural Networks via Non-parametric Subgraph
Matching [68.35685422301613]
そこで我々はMatchExplainerと呼ばれる新しい非パラメトリックな部分グラフマッチングフレームワークを提案し、説明的部分グラフを探索する。
ターゲットグラフと他のインスタンスを結合し、ノードに対応する距離を最小化することで最も重要な結合部分構造を識別する。
合成および実世界のデータセットの実験は、最先端のパラメトリックベースラインをかなりのマージンで上回り、MatchExplainerの有効性を示す。
論文 参考訳(メタデータ) (2023-01-07T05:14:45Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - FactGraph: Evaluating Factuality in Summarization with Semantic Graph
Representations [114.94628499698096]
文書と要約を構造化された意味表現(MR)に分解するFactGraphを提案する。
MRは、コアセマンティックの概念とその関係を記述し、文書と要約の両方の主要な内容を標準形式で集約し、データの疎結合を減少させる。
事実性を評価するための異なるベンチマークの実験では、FactGraphは以前のアプローチよりも最大15%優れていた。
論文 参考訳(メタデータ) (2022-04-13T16:45:33Z) - Graphon-aided Joint Estimation of Multiple Graphs [24.077455621015552]
観測結果から複数のネットワークのトポロジを推定する問題を考察する。
これは非パラメトリックなモデルであり、潜在的に異なるサイズのグラフを描画することができる。
論文 参考訳(メタデータ) (2022-02-11T15:20:44Z) - Graph Self-supervised Learning with Accurate Discrepancy Learning [64.69095775258164]
離散性に基づく自己監督型LeArning(D-SLA)と呼ばれる原図と摂動グラフの正確な相違を学習することを目的としたフレームワークを提案する。
本稿では,分子特性予測,タンパク質機能予測,リンク予測タスクなど,グラフ関連下流タスクにおける本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-02-07T08:04:59Z) - Residual2Vec: Debiasing graph embedding with random graphs [1.9280643035418397]
本稿では,グラフの様々な構造バイアスをランダムグラフを用いてデバイアスするグラフ埋め込み法であるRess2vecを提案する。
この偏りがリンク予測やクラスタリング性能を改善するだけでなく、グラフ埋め込みにおける健全な構造特性を明示的にモデル化できることを実証する。
論文 参考訳(メタデータ) (2021-10-14T18:24:11Z) - ExplaGraphs: An Explanation Graph Generation Task for Structured
Commonsense Reasoning [65.15423587105472]
スタンス予測のための説明グラフ生成の新しい生成および構造化コモンセンスリゾニングタスク(および関連するデータセット)を紹介します。
具体的には、信念と議論が与えられた場合、モデルは、議論が信念を支持しているかどうかを予測し、予測されたスタンスに対する非自明で完全で曖昧な説明として機能する常識強化グラフを生成する必要がある。
グラフの83%は、様々な構造と推論深度を持つ外部のコモンセンスノードを含んでいる。
論文 参考訳(メタデータ) (2021-04-15T17:51:36Z) - Line Graph Neural Networks for Link Prediction [71.00689542259052]
実世界の多くのアプリケーションにおいて古典的なグラフ解析問題であるグラフリンク予測タスクについて検討する。
このフォーマリズムでは、リンク予測問題をグラフ分類タスクに変換する。
本稿では,線グラフをグラフ理論に用いて,根本的に異なる新しい経路を求めることを提案する。
特に、線グラフの各ノードは、元のグラフのユニークなエッジに対応するため、元のグラフのリンク予測問題は、グラフ分類タスクではなく、対応する線グラフのノード分類問題として等価に解決できる。
論文 参考訳(メタデータ) (2020-10-20T05:54:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。