論文の概要: Combating Spurious Correlations in Graph Interpretability via Self-Reflection
- arxiv url: http://arxiv.org/abs/2601.11021v1
- Date: Fri, 16 Jan 2026 06:31:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.376382
- Title: Combating Spurious Correlations in Graph Interpretability via Self-Reflection
- Title(参考訳): 自己回帰によるグラフ解釈可能性の余剰相関
- Authors: Kecheng Cai, Chenyang Xu, Chao Peng,
- Abstract要約: 解釈可能なグラフ学習は、機械学習において人気のある研究トピックである。
最も難しいのは、ICLR 2022で導入されたSpurious-Motifベンチマークである。
本稿では,既存の解釈可能なグラフ学習手法と統合可能な自己回帰フレームワークを提案する。
- 参考スコア(独自算出の注目度): 5.973649352010376
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Interpretable graph learning has recently emerged as a popular research topic in machine learning. The goal is to identify the important nodes and edges of an input graph that are crucial for performing a specific graph reasoning task. A number of studies have been conducted in this area, and various benchmark datasets have been proposed to facilitate evaluation. Among them, one of the most challenging is the Spurious-Motif benchmark, introduced at ICLR 2022. The datasets in this synthetic benchmark are deliberately designed to include spurious correlations, making it particularly difficult for models to distinguish truly relevant structures from misleading patterns. As a result, existing methods exhibit significantly worse performance on this benchmark compared to others. In this paper, we focus on improving interpretability on the challenging Spurious-Motif datasets. We demonstrate that the self-reflection technique, commonly used in large language models to tackle complex tasks, can also be effectively adapted to enhance interpretability in datasets with strong spurious correlations. Specifically, we propose a self-reflection framework that can be integrated with existing interpretable graph learning methods. When such a method produces importance scores for each node and edge, our framework feeds these predictions back into the original method to perform a second round of evaluation. This iterative process mirrors how large language models employ self-reflective prompting to reassess their previous outputs. We further analyze the reasons behind this improvement from the perspective of graph representation learning, which motivates us to propose a fine-tuning training method based on this feedback mechanism.
- Abstract(参考訳): 解釈可能なグラフ学習は、機械学習で人気のある研究トピックとして最近登場した。
目標は、特定のグラフ推論タスクを実行するのに不可欠な入力グラフの重要なノードとエッジを特定することである。
この領域で多くの研究が行われ、評価を容易にするために様々なベンチマークデータセットが提案されている。
中でも最も難しいのは、ICLR 2022で導入されたSpurious-Motifベンチマークである。
このベンチマークのデータセットは、スパイラルな相関を含むよう意図的に設計されており、モデルが真に関連する構造と誤解を招くパターンを区別することが特に困難である。
その結果、既存の手法では、他の方法と比べて、このベンチマークでは大幅にパフォーマンスが低下した。
本稿では,難解なSpurious-Motifデータセットの解釈可能性の向上に焦点をあてる。
複雑なタスクに対処するために,大規模言語モデルで一般的に使用される自己回帰手法は,強い相関関係を持つデータセットの解釈可能性を高めるために,効果的に適応可能であることを実証した。
具体的には,既存の解釈可能なグラフ学習手法と統合可能な自己回帰フレームワークを提案する。
このような手法が各ノードとエッジに対して重要なスコアを生成すると、これらの予測を元の手法にフィードバックし、第2ラウンドの評価を行う。
この反復的プロセスは、大規模な言語モデルがいかに自己反射的であり、以前の出力を再評価するかを反映している。
さらに、この改善の背景にある理由をグラフ表現学習の観点から分析し、このフィードバック機構に基づいた微調整学習手法を提案する動機付けとなる。
関連論文リスト
- Position: Graph Learning Will Lose Relevance Due To Poor Benchmarks [37.020118015110086]
グラフ上の機械学習は、薬物設計と分子特性予測の可能性を証明している。
このポジションペーパーは、より有意義なベンチマーク、厳格な評価プロトコル、そしてドメインエキスパートとのより強力なコラボレーションへのパラダイムシフトを要求する。
論文 参考訳(メタデータ) (2025-02-20T13:21:47Z) - Explaining the Unexplained: Revealing Hidden Correlations for Better Interpretability [1.8274323268621635]
Real Explainer(RealExp)は、Shapley値を個々の特徴と特徴相関の重要度に分解する、解釈可能性の手法である。
RealExpは、個々の特徴とそれらの相互作用を正確に定量化することで、解釈可能性を高める。
論文 参考訳(メタデータ) (2024-12-02T10:50:50Z) - Learning from Neighbors: Category Extrapolation for Long-Tail Learning [62.30734737735273]
より粒度の細かいデータセットは、データの不均衡の影響を受けにくい傾向があります。
既存のクラスと視覚的に類似したオープンセット補助クラスを導入し、頭と尾の両方の表現学習を強化することを目的とした。
補助授業の圧倒的な存在がトレーニングを混乱させるのを防ぐために,近隣のサイレンシング障害を導入する。
論文 参考訳(メタデータ) (2024-10-21T13:06:21Z) - DIVE: Subgraph Disagreement for Graph Out-of-Distribution Generalization [44.291382840373]
本稿では,グラフ機械学習におけるアウト・オブ・ディストリビューションの一般化の課題に対処する。
従来のグラフ学習アルゴリズムは、この仮定が失敗する現実世界のシナリオで失敗する。
この準最適性能に寄与する主な要因は、ニューラルネットワークの本質的な単純さバイアスである。
論文 参考訳(メタデータ) (2024-08-08T12:08:55Z) - Globally Interpretable Graph Learning via Distribution Matching [12.885580925389352]
我々は、まだ十分に研究されていない重要な質問に答えることを目指している。グラフ学習手順のグローバルな解釈を提供するには、どうすればよいのか?
我々は,この問題を,学習過程を支配する高レベルかつ人間の知能なパターンを蒸留することを目的とした,グローバルな解釈可能なグラフ学習として定式化する。
本稿では,解釈に基づいて学習したモデルの忠実度を評価するために,新しいモデル忠実度尺度を提案する。
論文 参考訳(メタデータ) (2023-06-18T00:50:36Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Joint Graph Learning and Matching for Semantic Feature Correspondence [69.71998282148762]
本稿では,グラフマッチングを向上するための信頼度の高いグラフ構造を探索するために,GLAMという共用電子グラフ学習とマッチングネットワークを提案する。
提案手法は,3つの人気ビジュアルマッチングベンチマーク (Pascal VOC, Willow Object, SPair-71k) で評価される。
すべてのベンチマークにおいて、従来の最先端のグラフマッチング手法よりも大きなマージンを達成している。
論文 参考訳(メタデータ) (2021-09-01T08:24:02Z) - From Canonical Correlation Analysis to Self-supervised Graph Neural
Networks [99.44881722969046]
本稿では,グラフデータを用いた自己教師付き表現学習のための概念的単純かつ効果的なモデルを提案する。
古典的カノニカル相関解析にインスパイアされた,革新的な特徴レベルの目的を最適化する。
提案手法は、7つの公開グラフデータセット上で競合的に動作する。
論文 参考訳(メタデータ) (2021-06-23T15:55:47Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。