論文の概要: Robust Learning on Noisy Graphs via Latent Space Constraints with External Knowledge
- arxiv url: http://arxiv.org/abs/2507.05540v1
- Date: Mon, 07 Jul 2025 23:43:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:37.452914
- Title: Robust Learning on Noisy Graphs via Latent Space Constraints with External Knowledge
- Title(参考訳): 外部知識を用いた遅延空間制約による雑音グラフのロバスト学習
- Authors: Chunhui Gu, Mohammad Sadegh Nasr, James P. Long, Kim-Anh Do, Ehsan Irajizad,
- Abstract要約: 本稿では,Latent Space Constrained Graph Neural Networks (LSC-GNN) を提案する。
ベンチマークデータセットの実験では、LSC-GNNは標準よりも優れており、ノイズ耐性のGNNは中程度のノイズを受ける。
以上の結果から,LSC-GNNがノイズのあるリレーショナル構造を持つ環境での予測性能と解釈可能性を高める可能性を強調した。
- 参考スコア(独自算出の注目度): 0.9320657506524149
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) often struggle with noisy edges. We propose Latent Space Constrained Graph Neural Networks (LSC-GNN) to incorporate external "clean" links and guide embeddings of a noisy target graph. We train two encoders--one on the full graph (target plus external edges) and another on a regularization graph excluding the target's potentially noisy links--then penalize discrepancies between their latent representations. This constraint steers the model away from overfitting spurious edges. Experiments on benchmark datasets show LSC-GNN outperforms standard and noise-resilient GNNs in graphs subjected to moderate noise. We extend LSC-GNN to heterogeneous graphs and validate it on a small protein-metabolite network, where metabolite-protein interactions reduce noise in protein co-occurrence data. Our results highlight LSC-GNN's potential to boost predictive performance and interpretability in settings with noisy relational structures.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、しばしばノイズの多いエッジと競合する。
本稿では,Latent Space Constrained Graph Neural Networks (LSC-GNN) を提案する。
1つは全グラフ(ターゲット+外部エッジ)、もう1つは正規化グラフ(ターゲットの潜在的ノイズのあるリンクを除く)、そしてもう1つは潜在表現間の不一致を罰する2つのエンコーダを訓練する。
この制約により、モデルは急激なエッジの過度な適合から遠ざかる。
ベンチマークデータセットの実験では、LSC-GNNは標準よりも優れており、ノイズ耐性のGNNは中程度のノイズを受ける。
我々はLSC-GNNを異種グラフに拡張し、代謝物-タンパク質相互作用がタンパク質共起データにおけるノイズを減少させる小さなタンパク質-代謝物ネットワーク上で検証する。
以上の結果から,LSC-GNNがノイズのあるリレーショナル構造を持つ環境での予測性能と解釈可能性を高める可能性を強調した。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - ES-GNN: Generalizing Graph Neural Networks Beyond Homophily with Edge Splitting [32.69196871253339]
本稿では,学習タスクに関係のないグラフエッジを適応的に識別する新しいエッジ分割GNN(ES-GNN)フレームワークを提案する。
本稿では,ES-GNNを非交叉グラフ記述問題の解とみなすことができることを示す。
論文 参考訳(メタデータ) (2022-05-27T01:29:03Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Towards Robust Graph Neural Networks for Noisy Graphs with Sparse Labels [24.25945793671978]
ラベル付きノードを限定した雑音グラフ上で,堅牢なGNNを開発するための新しい問題について検討する。
分析の結果,ノイズの多いエッジと限定ラベル付きノードの両方が,GNNのメッセージパッシング機構を損なう可能性が示唆された。
本稿では,ノイズの多いエッジを教師として採用して,雑音に富んだ高密度グラフを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-01T19:00:26Z) - Training Stable Graph Neural Networks Through Constrained Learning [116.03137405192356]
グラフニューラルネットワーク(GNN)は、ネットワークデータから機能を学ぶためにグラフ畳み込みに依存する。
GNNは、グラフフィルタから受け継いだ特性である、基礎となるグラフの様々な種類の摂動に対して安定である。
本稿では,GNNの安定条件に制約を課すことにより,新たな制約付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-10-07T15:54:42Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Understanding Graph Neural Networks from Graph Signal Denoising
Perspectives [27.148827305359436]
グラフニューラルネットワーク(GNN)は,ノード分類などのタスクの性能に優れていたため,注目されている。
本稿では,GNN,具体的にはスペクトルグラフ畳み込みネットワークとグラフアテンションネットワークを理解するための理論的枠組みを提供することを目的とする。
論文 参考訳(メタデータ) (2020-06-08T07:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。