論文の概要: FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction
- arxiv url: http://arxiv.org/abs/2308.09259v2
- Date: Fri, 13 Oct 2023 09:41:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 17:15:13.089066
- Title: FRGNN: Mitigating the Impact of Distribution Shift on Graph Neural
Networks via Test-Time Feature Reconstruction
- Title(参考訳): FRGNN:テスト時間特徴再構成によるグラフニューラルネットワークにおける分布シフトの影響の軽減
- Authors: Rui Ding, Jielong Yang, Feng Ji, Xionghu Zhong, Linbo Xie
- Abstract要約: 分散シフトはグラフニューラルネットワーク(GNN)のテスト性能に悪影響を及ぼす可能性がある
特徴再構成を行うための汎用フレームワークFR-GNNを提案する。
特に、再構成されたノード機能は、よく訓練されたモデルをテストするために直接利用することができる。
- 参考スコア(独自算出の注目度): 13.21683198528012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to inappropriate sample selection and limited training data, a
distribution shift often exists between the training and test sets. This shift
can adversely affect the test performance of Graph Neural Networks (GNNs).
Existing approaches mitigate this issue by either enhancing the robustness of
GNNs to distribution shift or reducing the shift itself. However, both
approaches necessitate retraining the model, which becomes unfeasible when the
model structure and parameters are inaccessible. To address this challenge, we
propose FR-GNN, a general framework for GNNs to conduct feature reconstruction.
FRGNN constructs a mapping relationship between the output and input of a
well-trained GNN to obtain class representative embeddings and then uses these
embeddings to reconstruct the features of labeled nodes. These reconstructed
features are then incorporated into the message passing mechanism of GNNs to
influence the predictions of unlabeled nodes at test time. Notably, the
reconstructed node features can be directly utilized for testing the
well-trained model, effectively reducing the distribution shift and leading to
improved test performance. This remarkable achievement is attained without any
modifications to the model structure or parameters. We provide theoretical
guarantees for the effectiveness of our framework. Furthermore, we conduct
comprehensive experiments on various public datasets. The experimental results
demonstrate the superior performance of FRGNN in comparison to multiple
categories of baseline methods.
- Abstract(参考訳): 不適切なサンプル選択と限られたトレーニングデータのため、トレーニングセットとテストセットの間に分布シフトがしばしば存在する。
このシフトは、グラフニューラルネットワーク(GNN)のテストパフォーマンスに悪影響を及ぼす可能性がある。
既存のアプローチは、分散シフトに対するGNNの堅牢性を高めるか、あるいはシフト自体を減らすことによって、この問題を軽減する。
しかし、どちらのアプローチもモデル構造とパラメータがアクセスできない場合には、モデルを再トレーニングする必要がある。
この課題に対処するため,機能再構築のための汎用フレームワークFR-GNNを提案する。
FRGNNは、よく訓練されたGNNの出力と入力の間のマッピング関係を構築し、クラス代表埋め込みを取得し、これらの埋め込みを使用してラベル付きノードの特徴を再構築する。
これらの再構成機能はGNNのメッセージパッシング機構に組み込まれ、テスト時の未ラベルノードの予測に影響を与える。
特に、再構成されたノード機能は、十分に訓練されたモデルをテストするために直接利用することができ、配布シフトを効果的に低減し、テストパフォーマンスが向上する。
この顕著な成果は、モデル構造やパラメータを変更することなく達成される。
我々は枠組みの有効性を理論的に保証する。
さらに,様々な公開データセットに関する包括的実験を行った。
実験の結果, FRGNNの性能は, ベースライン手法の複数のカテゴリと比較して優れていた。
関連論文リスト
- Control the GNN: Utilizing Neural Controller with Lyapunov Stability for Test-Time Feature Reconstruction [15.066912209426542]
グラフニューラルネットワーク(GNN)の性能は、トレーニングとサンプル分布のテストの相違の影響を受けやすい。
リアプノフ安定理論に基づく新しいノード特徴再構成法を提案する。
提案手法の有効性は,複数のデータセットにわたる広範な実験を通じて検証し,大幅な性能向上を示す。
論文 参考訳(メタデータ) (2024-10-13T03:34:19Z) - DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Robust Node Representation Learning via Graph Variational Diffusion
Networks [7.335425547621226]
近年,グラフ構造における摂動により,GNNに基づくノード表現学習が著しく劣化する可能性が示唆されている。
摂動の存在下で頑健なノード表現を学習するために、GNNを保護するための様々な研究が提案されている。
本稿では,ガウス雑音を効果的に制御し,摂動グラフ上のロバスト性を保護する新しいノードエンコーダであるグラフ変分拡散ネットワーク(GVDN)を提案する。
論文 参考訳(メタデータ) (2023-12-18T03:18:53Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - Bayesian Graph Neural Networks with Adaptive Connection Sampling [62.51689735630133]
グラフニューラルネットワーク(GNN)における適応接続サンプリングのための統一的なフレームワークを提案する。
提案フレームワークは,深部GNNの過度なスムース化や過度に適合する傾向を緩和するだけでなく,グラフ解析タスクにおけるGNNによる不確実性の学習を可能にする。
論文 参考訳(メタデータ) (2020-06-07T07:06:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。