論文の概要: GOODAT: Towards Test-time Graph Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2401.06176v1
- Date: Wed, 10 Jan 2024 08:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 21:21:24.707358
- Title: GOODAT: Towards Test-time Graph Out-of-Distribution Detection
- Title(参考訳): GOODAT: テストタイムグラフアウトオブディストリビューション検出を目指す
- Authors: Luzhi Wang, Dongxiao He, He Zhang, Yixin Liu, Wenjie Wang, Shirui Pan,
Di Jin, Tat-Seng Chua
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
- 参考スコア(独自算出の注目度): 103.40396427724667
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have found widespread application in modeling
graph data across diverse domains. While GNNs excel in scenarios where the
testing data shares the distribution of their training counterparts (in
distribution, ID), they often exhibit incorrect predictions when confronted
with samples from an unfamiliar distribution (out-of-distribution, OOD). To
identify and reject OOD samples with GNNs, recent studies have explored graph
OOD detection, often focusing on training a specific model or modifying the
data on top of a well-trained GNN. Despite their effectiveness, these methods
come with heavy training resources and costs, as they need to optimize the
GNN-based models on training data. Moreover, their reliance on modifying the
original GNNs and accessing training data further restricts their universality.
To this end, this paper introduces a method to detect Graph Out-of-Distribution
At Test-time (namely GOODAT), a data-centric, unsupervised, and plug-and-play
solution that operates independently of training data and modifications of GNN
architecture. With a lightweight graph masker, GOODAT can learn informative
subgraphs from test samples, enabling the capture of distinct graph patterns
between OOD and ID samples. To optimize the graph masker, we meticulously
design three unsupervised objective functions based on the graph information
bottleneck principle, motivating the masker to capture compact yet informative
subgraphs for OOD detection. Comprehensive evaluations confirm that our GOODAT
method outperforms state-of-the-art benchmarks across a variety of real-world
datasets. The code is available at Github: https://github.com/Ee1s/GOODAT
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
gnnは、テストデータがトレーニング対象のディストリビューション(ディストリビューション、id)を共有しているシナリオで優れているが、不慣れなディストリビューション(ディストリビューション外、ood)からのサンプルと向き合う場合、誤った予測を示すことが多い。
近年の研究では、OODサンプルをGNNで識別・否定するために、グラフOOD検出を探索し、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いている。
その効果にもかかわらず、これらの方法はトレーニングデータにgnnベースのモデルを最適化する必要があるため、多くのトレーニングリソースとコストを伴っている。
さらに、元のGNNの変更やトレーニングデータへのアクセスへの依存により、その普遍性はさらに制限される。
そこで本稿では,GNN アーキテクチャのトレーニングデータと修正から独立して動作するデータ中心型,教師なし,プラグイン・アンド・プレイソリューションである GOODAT をテスト時に検出する手法を提案する。
軽量なグラフマスクにより、GOODATはテストサンプルから情報的なサブグラフを学習し、OODとIDの異なるグラフパターンをキャプチャすることができる。
グラフマスマを最適化するために,グラフ情報のボトルネック原理に基づく3つの非教師対象関数を慎重に設計し,OOD検出のためのコンパクトかつ情報に富んだサブグラフを抽出する。
包括的評価により、GOODATメソッドは様々な実世界のデータセットで最先端のベンチマークより優れていることが確認される。
コードはgithubで入手できる: https://github.com/ee1s/goodat
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - Online GNN Evaluation Under Test-time Graph Distribution Shifts [92.4376834462224]
オンラインGNN評価という新たな研究課題は、よく訓練されたGNNが現実世界の未ラベルグラフに一般化する能力について、貴重な洞察を提供することを目的としている。
我々は、よく訓練されたGNNモデルのテスト時間一般化誤差を推定するために、LeBeDと呼ばれる効果的な学習行動不一致スコアを開発する。
論文 参考訳(メタデータ) (2024-03-15T01:28:08Z) - Addressing the Impact of Localized Training Data in Graph Neural
Networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習において顕著な成功を収めた。
本稿では,グラフの局所化部分集合に対するGNNのトレーニングの影響を評価することを目的とする。
本稿では,局所化学習データとグラフ推論との分散不一致を最小化する正規化手法を提案する。
論文 参考訳(メタデータ) (2023-07-24T11:04:22Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection [67.90365841083951]
我々は,OODグラフを検出するための新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
GOOD-Dは、潜在IDパターンをキャプチャし、異なる粒度のセマンティック不整合に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルのOOD検出における先駆的な研究として,提案手法と最先端手法を比較した総合的なベンチマークを構築した。
論文 参考訳(メタデータ) (2022-11-08T12:41:58Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。