論文の概要: You Can't Ignore Either: Unifying Structure and Feature Denoising for Robust Graph Learning
- arxiv url: http://arxiv.org/abs/2408.00700v1
- Date: Thu, 1 Aug 2024 16:43:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-04 19:57:15.745315
- Title: You Can't Ignore Either: Unifying Structure and Feature Denoising for Robust Graph Learning
- Title(参考訳): どちらを無視できない:ロバストなグラフ学習のための構造と特徴を統一する
- Authors: Tianmeng Yang, Jiahao Meng, Min Zhou, Yaming Yang, Yujing Wang, Xiangtai Li, Yunhai Tong,
- Abstract要約: 我々は、構造と特徴のデッドロックを解き放つために、統一グラフ復調(UGD)フレームワークを開発する。
具体的には、ノイズエッジを認識するために、高次近傍評価法を提案する。
また,グラフオートエンコーダをベースとした,ノイズの多い特徴の再現も提案する。
- 参考スコア(独自算出の注目度): 34.52299775051481
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research on the robustness of Graph Neural Networks (GNNs) under noises or attacks has attracted great attention due to its importance in real-world applications. Most previous methods explore a single noise source, recovering corrupt node embedding by reliable structures bias or developing structure learning with reliable node features. However, the noises and attacks may come from both structures and features in graphs, making the graph denoising a dilemma and challenging problem. In this paper, we develop a unified graph denoising (UGD) framework to unravel the deadlock between structure and feature denoising. Specifically, a high-order neighborhood proximity evaluation method is proposed to recognize noisy edges, considering features may be perturbed simultaneously. Moreover, we propose to refine noisy features with reconstruction based on a graph auto-encoder. An iterative updating algorithm is further designed to optimize the framework and acquire a clean graph, thus enabling robust graph learning for downstream tasks. Our UGD framework is self-supervised and can be easily implemented as a plug-and-play module. We carry out extensive experiments, which proves the effectiveness and advantages of our method. Code is avalaible at https://github.com/YoungTimmy/UGD.
- Abstract(参考訳): 雑音や攻撃下でのグラフニューラルネットワーク(GNN)のロバスト性に関する最近の研究は、現実の応用における重要性から大きな注目を集めている。
従来の手法では、単一ノイズ源を探索し、信頼性のある構造バイアスによる破損ノードの埋め込みを回復したり、信頼性のあるノード特徴を持つ構造学習を開発する。
しかし、ノイズや攻撃はグラフの構造と特徴の両方から生じる可能性があるため、グラフはジレンマで困難な問題である。
本稿では,構造と特徴のデッドロックを解消する統一グラフデノイング(UGD)フレームワークを開発する。
具体的には,特徴が同時に乱れてしまうことを考慮し,ノイズエッジを認識するために,高次近接評価法を提案する。
さらに,グラフオートエンコーダをベースとした再構成による雑音特性の洗練も提案する。
反復的更新アルゴリズムは、フレームワークを最適化し、クリーンなグラフを取得するように設計されており、下流タスクに対する堅牢なグラフ学習を可能にする。
我々のUGDフレームワークは自己管理されており、プラグイン・アンド・プレイモジュールとして容易に実装できる。
提案手法の有効性と利点を実証する広範な実験を行う。
コードはhttps://github.com/YoungTimmy/UGD.comにある。
関連論文リスト
- DEGNN: Dual Experts Graph Neural Network Handling Both Edge and Node Feature Noise [5.048629544493508]
グラフニューラルネットワーク(GNN)は、グラフデータよりも様々なアプリケーションで顕著な成功を収めている。
近年の研究では、実世界のグラフにはノイズがしばしば含まれており、GNNはグラフ内のノイズに影響を受けやすいことが判明している。
我々は、エッジとノードの特徴の両面においてノイズを効果的に緩和するために設計された新しいGNNモデルであるDECNNを提案する。
論文 参考訳(メタデータ) (2024-04-14T10:04:44Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - SE-GSL: A General and Effective Graph Structure Learning Framework
through Structural Entropy Optimization [67.28453445927825]
グラフニューラルネットワーク(GNN)は、構造的データ学習のデファクトソリューションである。
既存のグラフ構造学習(GSL)フレームワークには、堅牢性と解釈性がない。
本稿では、構造エントロピーと符号化木に抽象化されたグラフ階層を通して、一般的なGSLフレームワークSE-GSLを提案する。
論文 参考訳(メタデータ) (2023-03-17T05:20:24Z) - Graph Signal Sampling for Inductive One-Bit Matrix Completion: a
Closed-form Solution [112.3443939502313]
グラフ信号解析と処理の利点を享受する統合グラフ信号サンプリングフレームワークを提案する。
キーとなる考え方は、各ユーザのアイテムのレーティングをアイテムイットグラフの頂点上の関数(信号)に変換することである。
オンライン設定では、グラフフーリエ領域における連続ランダムガウス雑音を考慮したベイズ拡張(BGS-IMC)を開発する。
論文 参考訳(メタデータ) (2023-02-08T08:17:43Z) - How Powerful is Implicit Denoising in Graph Neural Networks [33.01155523195073]
我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
論文 参考訳(メタデータ) (2022-09-29T02:19:39Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z) - Local Augmentation for Graph Neural Networks [78.48812244668017]
本稿では,局所的な部分グラフ構造によりノード特性を向上する局所拡張を提案する。
局所的な拡張に基づいて、プラグイン・アンド・プレイ方式で任意のGNNモデルに適用可能な、LA-GNNという新しいフレームワークをさらに設計する。
論文 参考訳(メタデータ) (2021-09-08T18:10:08Z) - Learning Node Representations from Noisy Graph Structures [38.32421350245066]
現実のネットワークではノイズが広まっており、ネットワークを危険にさらしている。
本研究では,ノイズのないノード表現を学習し,同時にノイズを除去する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-12-04T07:18:39Z) - Understanding Graph Neural Networks from Graph Signal Denoising
Perspectives [27.148827305359436]
グラフニューラルネットワーク(GNN)は,ノード分類などのタスクの性能に優れていたため,注目されている。
本稿では,GNN,具体的にはスペクトルグラフ畳み込みネットワークとグラフアテンションネットワークを理解するための理論的枠組みを提供することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T07:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。