論文の概要: From Subtle to Significant: Prompt-Driven Self-Improving Optimization in Test-Time Graph OOD Detection
- arxiv url: http://arxiv.org/abs/2602.17342v1
- Date: Thu, 19 Feb 2026 13:19:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:29.037367
- Title: From Subtle to Significant: Prompt-Driven Self-Improving Optimization in Test-Time Graph OOD Detection
- Title(参考訳): 命題から重要なものへ:テスト時間グラフOOD検出におけるプロンプト駆動自己改善最適化
- Authors: Luzhi Wang, Xuanshuo Fu, He Zhang, Chuang Liu, Xiaobao Wang, Hongbo Liu,
- Abstract要約: Graph Out-of-Distribution(OOD)検出は、テストグラフがトレーニング中に観察された分布から逸脱するかどうかを特定することを目的としている。
textbfSelf-textbfIm textbfGraph textbfOut-textbfof-textbfDistribution detector (SIGOOD)を提案する。
SIGOODは、潜在的OOD信号を増幅するプロンプト強化グラフを構築するプロンプトを生成する。
- 参考スコア(独自算出の注目度): 15.167705236111104
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Out-of-Distribution (OOD) detection aims to identify whether a test graph deviates from the distribution of graphs observed during training, which is critical for ensuring the reliability of Graph Neural Networks (GNNs) when deployed in open-world scenarios. Recent advances in graph OOD detection have focused on test-time training techniques that facilitate OOD detection without accessing potential supervisory information (e.g., training data). However, most of these methods employ a one-pass inference paradigm, which prevents them from progressively correcting erroneous predictions to amplify OOD signals. To this end, we propose a \textbf{S}elf-\textbf{I}mproving \textbf{G}raph \textbf{O}ut-\textbf{o}f-\textbf{D}istribution detector (SIGOOD), which is an unsupervised framework that integrates continuous self-learning with test-time training for effective graph OOD detection. Specifically, SIGOOD generates a prompt to construct a prompt-enhanced graph that amplifies potential OOD signals. To optimize prompts, SIGOOD introduces an Energy Preference Optimization (EPO) loss, which leverages energy variations between the original test graph and the prompt-enhanced graph. By iteratively optimizing the prompt by involving it into the detection model in a self-improving loop, the resulting optimal prompt-enhanced graph is ultimately used for OOD detection. Comprehensive evaluations on 21 real-world datasets confirm the effectiveness and outperformance of our SIGOOD method. The code is at https://github.com/Ee1s/SIGOOD.
- Abstract(参考訳): Graph Out-of-Distribution(OOD)検出は、テストグラフがトレーニング中に観察されたグラフの分布から逸脱するかどうかを識別することを目的としている。
グラフOOD検出の最近の進歩は、潜在的監視情報(例えば、トレーニングデータ)にアクセスせずにOOD検出を容易にするテストタイムトレーニング技術に焦点を当てている。
しかし、これらの手法の多くはワンパス推論パラダイムを採用しており、OOD信号の増幅のために誤った予測を段階的に修正することができない。
そこで本研究では,連続自己学習と実効グラフOOD検出のためのテストタイムトレーニングを統合した,教師なしフレームワークである <textbf{S}elf-\textbf{I}mproving \textbf{G}raph \textbf{O}ut-\textbf{o}f-\textbf{D}istribution detector (SIGOOD) を提案する。
具体的には、SIGOODは、潜在的OOD信号を増幅するプロンプト強化グラフを構築するプロンプトを生成する。
プロンプトを最適化するためにSIGOODは、元のテストグラフとプロンプト強化グラフの間のエネルギー変動を利用するエネルギ優先最適化(EPO)ロスを導入した。
自己改善ループにおける検出モデルに組み込んだプロンプトを反復的に最適化することにより、最終的なOOD検出に最適なプロンプト強化グラフが使用される。
21個の実世界のデータセットに対する総合的な評価を行い,SIGOOD法の有効性と性能を確認した。
コードはhttps://github.com/Ee1s/SIGOODにある。
関連論文リスト
- HGOE: Hybrid External and Internal Graph Outlier Exposure for Graph Out-of-Distribution Detection [78.47008997035158]
グラフデータはより多様性を示すが、摂動に対する堅牢性は低く、外れ値の統合を複雑にする。
我々は、グラフOOD検出性能を改善するために、textbfHybrid外部および内部の textbfGraph textbfOutlier textbfExposure (HGOE) の導入を提案する。
論文 参考訳(メタデータ) (2024-07-31T16:55:18Z) - Unifying Unsupervised Graph-Level Anomaly Detection and Out-of-Distribution Detection: A Benchmark [73.58840254552656]
近年,非教師付きグラフレベルの異常検出(GLAD)と教師なしグラフレベルのアウト・オブ・ディストリビューション(OOD)検出が注目されている。
教師なしアンダーラインtextbfGraphレベルアンダーラインtextbfOOD と anomaunderlinetextbfLy underlinetextbfDetection (ourmethod) に対するアンダーラインtextbfUnifiedアンダーラインtextbffBenchmark を提案する。
私たちのベンチマークには35のデータセットが含まれています
論文 参考訳(メタデータ) (2024-06-21T04:07:43Z) - GOODAT: Towards Test-time Graph Out-of-Distribution Detection [103.40396427724667]
グラフニューラルネットワーク(GNN)は、さまざまな領域にわたるグラフデータのモデリングに広く応用されている。
近年の研究では、特定のモデルのトレーニングや、よく訓練されたGNN上でのデータ修正に重点を置いて、OOD検出のグラフを調査している。
本稿では、GNNアーキテクチャのトレーニングデータと修正から独立して動作する、データ中心、教師なし、プラグアンドプレイのソリューションを提案する。
論文 参考訳(メタデータ) (2024-01-10T08:37:39Z) - SGOOD: Substructure-enhanced Graph-Level Out-of-Distribution Detection [13.734411226834327]
グラフレベルのOOD検出フレームワークであるSGOODを提案する。
我々は,IDグラフとOODグラフのサブ構造差が一般的であること,および,OOD検出に有効なタスク非依存のサブ構造を符号化する一連の手法を用いてSGOODを設計することを発見した。
多数のグラフデータセット上の11の競合相手に対する実験は、SGOODの優位性を実証している。
論文 参考訳(メタデータ) (2023-10-16T09:51:24Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - GOOD-D: On Unsupervised Graph Out-Of-Distribution Detection [67.90365841083951]
我々は,OODグラフを検出するための新しいグラフコントラスト学習フレームワークGOOD-Dを開発した。
GOOD-Dは、潜在IDパターンをキャプチャし、異なる粒度のセマンティック不整合に基づいてOODグラフを正確に検出することができる。
教師なしグラフレベルのOOD検出における先駆的な研究として,提案手法と最先端手法を比較した総合的なベンチマークを構築した。
論文 参考訳(メタデータ) (2022-11-08T12:41:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。