論文の概要: GADPN: Graph Adaptive Denoising and Perturbation Networks via Singular Value Decomposition
- arxiv url: http://arxiv.org/abs/2601.08230v1
- Date: Tue, 13 Jan 2026 05:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:19.070456
- Title: GADPN: Graph Adaptive Denoising and Perturbation Networks via Singular Value Decomposition
- Title(参考訳): GADPN:特異値分解によるグラフ適応型ノイズ除去と摂動ネットワーク
- Authors: Hao Deng, Bo Liu,
- Abstract要約: GADPNはグラフ構造学習フレームワークであり、低ランクな denoising と一般化された構造摂動によってグラフトポロジーを適応的に洗練する。
最先端のパフォーマンスを実現し、効率を大幅に向上させる。
グラフ構造を強固に学習する能力を検証することで、不合理なグラフに挑戦する上で特に大きな利益をもたらす。
- 参考スコア(独自算出の注目度): 6.24191713518868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While Graph Neural Networks (GNNs) excel on graph-structured data, their performance is fundamentally limited by the quality of the observed graph, which often contains noise, missing links, or structural properties misaligned with GNNs' underlying assumptions. To address this, graph structure learning aims to infer a more optimal topology. Existing methods, however, often incur high computational costs due to complex generative models and iterative joint optimization, limiting their practical utility. In this paper, we propose GADPN, a simple yet effective graph structure learning framework that adaptively refines graph topology via low-rank denoising and generalized structural perturbation. Our approach makes two key contributions: (1) we introduce Bayesian optimization to adaptively determine the optimal denoising strength, tailoring the process to each graph's homophily level; and (2) we extend the structural perturbation method to arbitrary graphs via Singular Value Decomposition (SVD), overcoming its original limitation to symmetric structures. Extensive experiments on benchmark datasets demonstrate that GADPN achieves state-of-the-art performance while significantly improving efficiency. It shows particularly strong gains on challenging disassortative graphs, validating its ability to robustly learn enhanced graph structures across diverse network types.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はグラフ構造化データに優れるが、その性能は観測されたグラフの品質によって根本的に制限される。
これを解決するために、グラフ構造学習はより最適なトポロジを推論することを目的としている。
しかし、既存の手法はしばしば複雑な生成モデルと反復的な共同最適化により計算コストが高くなり、実用性は制限される。
本稿では,低ランクな denoising と一般化された構造摂動によってグラフトポロジを適応的に洗練する簡易かつ効果的なグラフ構造学習フレームワーク GADPN を提案する。
提案手法は,各グラフのホモフィリーレベルにプロセスを調整し,最適解法強度を適応的に決定するベイズ最適化を導入し,(2)Singular Value Decomposition (SVD) による任意のグラフへの構造摂動法を拡張し,その元の対称構造に対する制限を克服する。
ベンチマークデータセットの大規模な実験は、GADPNが最先端のパフォーマンスを達成し、効率を大幅に向上することを示した。
これは、様々なネットワークタイプにまたがる拡張グラフ構造を堅牢に学習する能力を検証することで、ディスコンソーシアトグラフに挑戦する上で特に大きな利益をもたらすことを示している。
関連論文リスト
- Dynamic Deep Graph Learning for Incomplete Multi-View Clustering with Masked Graph Reconstruction Loss [26.31060859315329]
textbfIncomplete textbfMulti-textbfView textbfClustering with textbfMasked Graph Reconstruction Loss (DGIMVCM)を提案する。
次に、グラフ畳み込み埋め込み層を設計し、主要な特徴を抽出し、動的なビュー固有のグラフ構造を洗練し、グローバルグラフを利用して、不足するビューの計算を行う。
論文 参考訳(メタデータ) (2025-11-14T11:26:38Z) - Dual-Kernel Graph Community Contrastive Learning [14.92920991249099]
Graph Contrastive Learning (GCL)は、グラフニューラルネットワーク(GNN)をトレーニングするための強力なパラダイムとして登場した。
本稿では,入力グラフを相互接続ノード集合のコンパクトネットワークに変換する,効率的なGCLフレームワークを提案する。
提案手法は,有効性とスケーラビリティの両面で,最先端のGCLベースラインを上回っている。
論文 参考訳(メタデータ) (2025-11-11T14:20:39Z) - Global Optimization on Graph-Structured Data via Gaussian Processes with Spectral Representations [13.634723898878983]
グラフに対するグローバルな最適化のためのスケーラブルなフレームワークを導入します。
学習可能な埋め込みを通してグラフ構造とノード表現を推論する。
合成および実世界のデータセットを用いた実験により,本手法は従来手法よりも高速に収束し,最適化性能が向上することを示した。
論文 参考訳(メタデータ) (2025-11-11T01:37:13Z) - Graph Structure Learning with Temporal Graph Information Bottleneck for Inductive Representation Learning [1.3728301825671199]
グラフ構造学習(GSL)と時間グラフ情報ボット(TGIB)を統合する汎用フレームワークを提案する。
ノード近傍を拡張・最適化する2段階のGSL構造拡張器を設計する。
TGIBは、情報ボトルネックの原則を時間グラフに拡張し、エッジと機能の両方を正規化することで、最適化されたグラフを洗練する。
論文 参考訳(メタデータ) (2025-08-20T17:13:19Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Towards Unsupervised Deep Graph Structure Learning [67.58720734177325]
本稿では,学習したグラフトポロジを外部ガイダンスなしでデータ自身で最適化する,教師なしグラフ構造学習パラダイムを提案する。
具体的には、元のデータから"アンカーグラフ"として学習目標を生成し、対照的な損失を用いてアンカーグラフと学習グラフとの一致を最大化する。
論文 参考訳(メタデータ) (2022-01-17T11:57:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。