論文の概要: BAED: a New Paradigm for Few-shot Graph Learning with Explanation in the Loop
- arxiv url: http://arxiv.org/abs/2603.01941v1
- Date: Mon, 02 Mar 2026 14:56:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.919286
- Title: BAED: a New Paradigm for Few-shot Graph Learning with Explanation in the Loop
- Title(参考訳): BAED:ループでの説明付きグラフ学習のための新しいパラダイム
- Authors: Chao Chen, Xujia Li, Dongsheng Hong, Shanshan Lin, Xiangwen Liao, Chuanyi Liu, Lei Chen,
- Abstract要約: FSGL(Few-Shot Graph Learning)アプローチは、長年にわたって開発されてきた。
本稿では, BAED と呼ばれる FSGL 問題に対する最初の説明---the-loop フレームワークを紹介する。
- 参考スコア(独自算出の注目度): 14.41672697491523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The challenges of training and inference in few-shot environments persist in the area of graph representation learning. The quality and quantity of labels are often insufficient due to the extensive expert knowledge required to annotate graph data. In this context, Few-Shot Graph Learning (FSGL) approaches have been developed over the years. Through sophisticated neural architectures and customized training pipelines, these approaches enhance model adaptability to new label distributions. However, compromises in \textcolor{black}{the model's} robustness and interpretability can result in overfitting to noise in labeled data and degraded performance. This paper introduces the first explanation-in-the-loop framework for the FSGL problem, called BAED. We novelly employ the belief propagation algorithm to facilitate label augmentation on graphs. Then, leveraging an auxiliary graph neural network and the gradient backpropagation method, our framework effectively extracts explanatory subgraphs surrounding target nodes. The final predictions are based on these informative subgraphs while mitigating the influence of redundant information from neighboring nodes. Extensive experiments on seven benchmark datasets demonstrate superior prediction accuracy, training efficiency, and explanation quality of BAED. As a pioneer, this work highlights the potential of the explanation-based research paradigm in FSGL.
- Abstract(参考訳): 数ショット環境でのトレーニングと推論の課題は、グラフ表現学習の領域に留まっている。
グラフデータのアノテートに必要な豊富な専門知識のため、ラベルの品質と量はしばしば不十分である。
この文脈では、Few-Shot Graph Learning (FSGL)アプローチが長年にわたって開発されてきた。
洗練されたニューラルネットワークとカスタマイズされたトレーニングパイプラインを通じて、これらのアプローチは新しいラベル分布へのモデル適応性を高める。
しかし、textcolor{black}{the model's}の堅牢性と解釈可能性の妥協は、ラベル付きデータのノイズに過度に適合し、性能が劣化する可能性がある。
本稿では, BAED と呼ばれる FSGL 問題に対する最初の説明---the-loop フレームワークを紹介する。
本稿では,グラフ上のラベル拡張を容易にするために,信念伝播アルゴリズムを新たに採用する。
そして,補助グラフニューラルネットワークと勾配バックプロパゲーション手法を利用して,対象ノードを囲む説明サブグラフを効果的に抽出する。
最終的な予測は、近隣ノードからの冗長な情報の影響を緩和しながら、これらの情報的部分グラフに基づいている。
7つのベンチマークデータセットに対する大規模な実験により、BAEDの予測精度、トレーニング効率、説明品質が向上した。
先駆者として、この研究はFSGLにおける説明に基づく研究パラダイムの可能性を強調している。
関連論文リスト
- From Binary to Continuous: Stochastic Re-Weighting for Robust Graph Explanation [13.275755958823835]
グラフニューラルネットワーク(GNN)は,幅広いグラフ関連学習タスクにおいて,優れたパフォーマンスを実現している。
それらの予測を説明することは難しい問題であり、特に訓練中に使われたグラフと説明中に遭遇したグラフのミスマッチのためである。
既存のほとんどの手法は、重み付きグラフ上のソフトエッジマスクを最適化して重要な部分構造を強調するが、これらのグラフはGNNが訓練されている未重み付きグラフとは異なる。
この分布シフトは信頼性の低い勾配と劣化した説明品質につながる。
モデルのトレーニングデータ分布と重み付けを整合させることにより、説明の堅牢性を改善する新しい反復的説明フレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-03T21:19:58Z) - Heterogeneous Graph Prompt Learning via Adaptive Weight Pruning [37.735384483052044]
グラフニューラルネットワーク(GNN)は、様々なグラフベースのタスク(ノード分類やリンク予測など)で顕著な成功を収めた。
彼らの勝利にもかかわらず、GNNは長いトレーニングや推論時間、複雑な関係を捉えるのが難しいこと、機能の抽出が不十分なことといった課題に直面している。
本稿では,グラフプロンプトとウェイトプルーニングを組み合わせた新しいフレームワークGPAWPを提案する。
論文 参考訳(メタデータ) (2025-07-12T04:12:24Z) - Chasing Fairness in Graphs: A GNN Architecture Perspective [73.43111851492593]
グラフニューラルネットワーク(GNN)の統一最適化フレームワーク内で設計されたtextsfFair textsfMessage textsfPassing(FMP)を提案する。
FMPでは、アグリゲーションがまず隣人の情報を活用するために採用され、バイアス軽減ステップにより、人口集団ノードのプレゼンテーションセンタが明示的に統合される。
ノード分類タスクの実験により、提案されたFMPは、実世界の3つのデータセットの公平性と正確性の観点から、いくつかのベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-19T18:00:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Features Based Adaptive Augmentation for Graph Contrastive Learning [0.0]
自己監督学習は、グラフ表現学習における高価なアノテーションの必要性を排除することを目的としている。
機能に基づく適応拡張(FebAA)アプローチを導入し、潜在的に影響力のある機能を特定し保存する。
8つのグラフ表現学習のベンチマークデータセットにおいて,GRACEとBGRLの精度を向上させることに成功した。
論文 参考訳(メタデータ) (2022-07-05T03:41:20Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Graph Structure Learning with Variational Information Bottleneck [70.62851953251253]
本稿では,新しい変分情報ボトルネックガイド付きグラフ構造学習フレームワーク,すなわちVIB-GSLを提案する。
VIB-GSLは情報的かつ圧縮的なグラフ構造を学習し、特定の下流タスクに対して実行可能な情報を蒸留する。
論文 参考訳(メタデータ) (2021-12-16T14:22:13Z) - A Graph Data Augmentation Strategy with Entropy Preserving [11.886325179121226]
本稿では,グラフ間の特徴情報を評価するための定量的指標として,新しいグラフエントロピー定義を提案する。
グラフエントロピーの保存を考慮し、摂動機構を用いてトレーニングデータを生成する効果的な方法を提案する。
提案手法はトレーニング過程におけるGCNの堅牢性と一般化能力を大幅に向上させる。
論文 参考訳(メタデータ) (2021-07-13T12:58:32Z) - Recognizing Predictive Substructures with Subgraph Information
Bottleneck [97.19131149357234]
IB-subgraph というサブグラフを認識するための新しいサブグラフ情報ボトルネック(SIB)フレームワークを提案する。
相互情報の抽出性とグラフデータの離散的性質は、SIBの目的を最適化することが難しいことで知られている。
グラフ学習と大規模ポイントクラウドタスクの実験は、ib-subgraphの優れた特性を示している。
論文 参考訳(メタデータ) (2021-03-20T11:19:43Z) - Graph Information Bottleneck for Subgraph Recognition [103.37499715761784]
本稿では,深層グラフ学習における部分グラフ認識問題に対するグラフ情報ブートネック(GIB)の枠組みを提案する。
この枠組みの下では、最大情報でありながら圧縮的な部分グラフ(IB-subgraph)を認識できる。
IB-サブグラフの特性を3つのアプリケーションシナリオで評価する。
論文 参考訳(メタデータ) (2020-10-12T09:32:20Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。