論文の概要: Learn Beneficial Noise as Graph Augmentation
- arxiv url: http://arxiv.org/abs/2505.19024v1
- Date: Sun, 25 May 2025 08:20:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.847729
- Title: Learn Beneficial Noise as Graph Augmentation
- Title(参考訳): グラフ強化としての便益音の学習
- Authors: Siqi Huang, Yanchen Xu, Hongyuan Zhang, Xuelong Li,
- Abstract要約: 本稿では,情報理論における雑音の有益効果を科学的に分析するPiNGDAを提案する。
我々は,事前定義された拡張値を持つ標準GCLが,点推定による有益雑音の推定に等価であることを証明した。
生成元はグラフトポロジとノード属性に対して有益な摂動を生成する方法を学ぶため、PiNGDAは既存の手法よりも信頼性が高い。
- 参考スコア(独自算出の注目度): 54.44813218411879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although graph contrastive learning (GCL) has been widely investigated, it is still a challenge to generate effective and stable graph augmentations. Existing methods often apply heuristic augmentation like random edge dropping, which may disrupt important graph structures and result in unstable GCL performance. In this paper, we propose Positive-incentive Noise driven Graph Data Augmentation (PiNGDA), where positive-incentive noise (pi-noise) scientifically analyzes the beneficial effect of noise under the information theory. To bridge the standard GCL and pi-noise framework, we design a Gaussian auxiliary variable to convert the loss function to information entropy. We prove that the standard GCL with pre-defined augmentations is equivalent to estimate the beneficial noise via the point estimation. Following our analysis, PiNGDA is derived from learning the beneficial noise on both topology and attributes through a trainable noise generator for graph augmentations, instead of the simple estimation. Since the generator learns how to produce beneficial perturbations on graph topology and node attributes, PiNGDA is more reliable compared with the existing methods. Extensive experimental results validate the effectiveness and stability of PiNGDA.
- Abstract(参考訳): グラフコントラスト学習 (GCL) は広く研究されているが, 有効かつ安定したグラフ拡張を生成することは依然として困難である。
既存の手法は、しばしばランダムなエッジドロップのようなヒューリスティックな拡張を適用し、重要なグラフ構造を乱し、不安定なGCL性能をもたらす。
本稿では,ポジティブインセンティブ型ノイズ駆動グラフデータ拡張(PiNGDA)を提案する。
標準的なGCLおよびpi-noiseフレームワークをブリッジするために、損失関数を情報エントロピーに変換するガウス補助変数を設計する。
我々は,事前定義された拡張値を持つ標準GCLが,点推定による有益雑音の推定に等価であることを証明した。
解析の結果,PNGDAは単純な推定ではなく,学習可能な雑音生成器を用いて,トポロジと属性の両方に有益な雑音を学習することに由来する。
生成元はグラフトポロジとノード属性に対して有益な摂動を生成する方法を学ぶため、PiNGDAは既存の手法よりも信頼性が高い。
その結果,PiNGDAの有効性と安定性が検証された。
関連論文リスト
- Training Robust Graph Neural Networks by Modeling Noise Dependencies [28.1151026795484]
実世界のアプリケーションでは、グラフのノード機能は様々なソースからのノイズを含むことが多く、性能が著しく低下する。
本稿では,グラフ構造やノードラベルに伝搬するノイズ依存性の連鎖をノードの特徴として生み出す,より現実的なノイズシナリオ,依存性を意識したグラフ上のノイズ(DANG)を紹介する。
本稿では,DANGのデータ生成プロセス(DGP)における変数間の因果関係を変動推論を用いてキャプチャする,新しいロバストなGNN,DA-GNNを提案する。
論文 参考訳(メタデータ) (2025-02-27T01:30:13Z) - SpeGCL: Self-supervised Graph Spectrum Contrastive Learning without Positive Samples [44.315865532262876]
グラフコントラスト学習(GCL)は、入力データのノイズやゆらぎの管理に優れており、様々な分野で人気がある。
既存のGCL法は主にノードの特徴表現の時間領域(低周波情報)に焦点を当てている。
正のサンプルを持たない新しいスペクトルGCLフレームワークSpeGCLを提案する。
論文 参考訳(メタデータ) (2024-10-14T10:39:38Z) - RobGC: Towards Robust Graph Condensation [61.259453496191696]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の目覚ましい能力によって広く注目を集めている。
しかし,大規模グラフの普及は,その計算要求により,GNNトレーニングにとって大きな課題となる。
本稿では,GNNを効率よく学習し,性能を保ちつつ,情報的コンパクトなグラフを生成するために,GC(Graph Condensation)を提案する。
論文 参考訳(メタデータ) (2024-06-19T04:14:57Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Per-Example Gradient Regularization Improves Learning Signals from Noisy
Data [25.646054298195434]
実験的な証拠は、勾配正則化技術は、ノイズの多い摂動に対するディープラーニングモデルの堅牢性を著しく向上させることができることを示唆している。
本稿では,騒音摂動に対する試験誤差とロバスト性の両方を改善することの有効性を理論的に示す。
解析の結果,PEGRはパターン学習の分散をペナルティ化し,学習データからの雑音の記憶を効果的に抑制することがわかった。
論文 参考訳(メタデータ) (2023-03-31T10:08:23Z) - Graph Signal Sampling for Inductive One-Bit Matrix Completion: a
Closed-form Solution [112.3443939502313]
グラフ信号解析と処理の利点を享受する統合グラフ信号サンプリングフレームワークを提案する。
キーとなる考え方は、各ユーザのアイテムのレーティングをアイテムイットグラフの頂点上の関数(信号)に変換することである。
オンライン設定では、グラフフーリエ領域における連続ランダムガウス雑音を考慮したベイズ拡張(BGS-IMC)を開発する。
論文 参考訳(メタデータ) (2023-02-08T08:17:43Z) - How Powerful is Implicit Denoising in Graph Neural Networks [33.01155523195073]
我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
論文 参考訳(メタデータ) (2022-09-29T02:19:39Z) - Oversquashing in GNNs through the lens of information contraction and
graph expansion [6.8222473597904845]
本稿では,情報収縮に基づく過疎分析のためのフレームワークを提案する。
オーバーカッシングを緩和するグラフ再配線アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-06T08:44:39Z) - Shape Matters: Understanding the Implicit Bias of the Noise Covariance [76.54300276636982]
勾配降下のノイズはパラメータ化モデルに対するトレーニングにおいて重要な暗黙の正則化効果をもたらす。
ミニバッチやラベルの摂動によって引き起こされるパラメータ依存ノイズはガウスノイズよりもはるかに効果的であることを示す。
分析の結果,パラメータ依存ノイズは局所最小値に偏りを生じさせるが,球状ガウス雑音は生じないことがわかった。
論文 参考訳(メタデータ) (2020-06-15T18:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。