論文の概要: Is Noise Conditioning Necessary? A Unified Theory of Unconditional Graph Diffusion Models
- arxiv url: http://arxiv.org/abs/2505.22935v1
- Date: Wed, 28 May 2025 23:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.581849
- Title: Is Noise Conditioning Necessary? A Unified Theory of Unconditional Graph Diffusion Models
- Title(参考訳): ノイズコンディショニングは必要か?-無条件グラフ拡散モデルの統一理論
- Authors: Jipeng Li, Yanning Shen,
- Abstract要約: 本研究では,ベルヌーイのエッジフリップの破損に着目した理論的枠組みを開発し,結合構造帰属雑音を含むより複雑なシナリオを包含するように拡張する。
以上の結果から,グラフデータ自体の高次元的な性質は,デノナイズ処理に十分な情報を符号化することが多いことが示唆された。
- 参考スコア(独自算出の注目度): 14.188004615463742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Explicit noise-level conditioning is widely regarded as essential for the effective operation of Graph Diffusion Models (GDMs). In this work, we challenge this assumption by investigating whether denoisers can implicitly infer noise levels directly from corrupted graph structures, potentially eliminating the need for explicit noise conditioning. To this end, we develop a theoretical framework centered on Bernoulli edge-flip corruptions and extend it to encompass more complex scenarios involving coupled structure-attribute noise. Extensive empirical evaluations on both synthetic and real-world graph datasets, using models such as GDSS and DiGress, provide strong support for our theoretical findings. Notably, unconditional GDMs achieve performance comparable or superior to their conditioned counterparts, while also offering reductions in parameters (4-6%) and computation time (8-10%). Our results suggest that the high-dimensional nature of graph data itself often encodes sufficient information for the denoising process, opening avenues for simpler, more efficient GDM architectures.
- Abstract(参考訳): 露骨な雑音レベル条件付けはグラフ拡散モデル(GDM)の有効運用に不可欠であると考えられている。
本研究では,劣化したグラフ構造から直接ノイズレベルを暗黙的に推測できるかどうかを考察することにより,この仮定に挑戦する。
この目的のために,Bernoulliエッジフリップの破損に着目した理論的枠組みを開発し,結合構造-属性ノイズを含むより複雑なシナリオを包含するように拡張する。
GDSS や DiGress などのモデルを用いた合成グラフデータセットと実世界のグラフデータセットの広範な評価は、我々の理論的な発見を強く支持する。
特に、非条件のGDMは条件付きGDMに匹敵する性能を達成し、パラメータ(4-6%)と計算時間(8-10%)の削減も提供する。
以上の結果から,グラフデータ自体の高次元的性質はデノナイズ処理に十分な情報を符号化し,よりシンプルで効率的なGDMアーキテクチャを実現することが示唆された。
関連論文リスト
- Robust OOD Graph Learning via Mean Constraints and Noise Reduction [4.234842954797706]
Graph Out-of-Distribution (OOD)分類は、特にカテゴリーの不均衡と構造的ノイズの下で、急激なパフォーマンス低下に悩まされることが多い。
本研究は,(1)スキューラベル分布によるマイノリティクラスの性能低下,(2)グラフデータにおける構造ノイズに対する感度向上という2つの課題に対処する。
論文 参考訳(メタデータ) (2025-06-24T03:25:33Z) - Learn Beneficial Noise as Graph Augmentation [54.44813218411879]
本稿では,情報理論における雑音の有益効果を科学的に分析するPiNGDAを提案する。
我々は,事前定義された拡張値を持つ標準GCLが,点推定による有益雑音の推定に等価であることを証明した。
生成元はグラフトポロジとノード属性に対して有益な摂動を生成する方法を学ぶため、PiNGDAは既存の手法よりも信頼性が高い。
論文 参考訳(メタデータ) (2025-05-25T08:20:34Z) - Training Robust Graph Neural Networks by Modeling Noise Dependencies [28.1151026795484]
実世界のアプリケーションでは、グラフのノード機能は様々なソースからのノイズを含むことが多く、性能が著しく低下する。
本稿では,グラフ構造やノードラベルに伝搬するノイズ依存性の連鎖をノードの特徴として生み出す,より現実的なノイズシナリオ,依存性を意識したグラフ上のノイズ(DANG)を紹介する。
本稿では,DANGのデータ生成プロセス(DGP)における変数間の因果関係を変動推論を用いてキャプチャする,新しいロバストなGNN,DA-GNNを提案する。
論文 参考訳(メタデータ) (2025-02-27T01:30:13Z) - Graph Attention is Not Always Beneficial: A Theoretical Analysis of Graph Attention Mechanisms via Contextual Stochastic Block Models [8.098074314691125]
構造ノイズが特徴雑音を超えると,グラフアテンション機構により分類性能が向上することを示す。
本稿では,単一層GATよりも優れたマルチレイヤグラフアテンションネットワーク(GAT)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-12-20T02:22:38Z) - SeaDAG: Semi-autoregressive Diffusion for Conditional Directed Acyclic Graph Generation [83.52157311471693]
方向性非巡回グラフ(DAG)の条件生成のための半自己回帰拡散モデルSeaDAGを紹介する。
グローバルグラフ構造を欠いた従来の自己回帰生成とは異なり,本手法は拡散ステップ毎に完全なグラフ構造を保持する。
本研究では,現実的なDAGを生成する拡散モデルの能力を高めるために,条件損失を伴うグラフ条件学習を明示的に訓練する。
論文 参考訳(メタデータ) (2024-10-21T15:47:03Z) - Combating Bilateral Edge Noise for Robust Link Prediction [56.43882298843564]
本稿では,RGIB(Robust Graph Information Bottleneck)という情報理論の原則を提案し,信頼性の高い監視信号を抽出し,表現の崩壊を回避する。
RGIB-SSLとRGIB-REPの2つのインスタンス化は、異なる手法の利点を活用するために検討されている。
6つのデータセットと3つのGNNの様々なノイズシナリオによる実験は、我々のRGIBインスタンスの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-02T12:47:49Z) - Realistic Noise Synthesis with Diffusion Models [44.404059914652194]
ディープラーニングモデルには、大規模な実世界のトレーニングデータが必要です。
本稿では,これらの課題に対処するために拡散モデルを用いた新しい実音合成拡散器(RNSD)法を提案する。
論文 参考訳(メタデータ) (2023-05-23T12:56:01Z) - How Powerful is Implicit Denoising in Graph Neural Networks [33.01155523195073]
我々は、GNNで暗黙の妄想が起こる時期と理由を総合的な理論的研究を行い、分析する。
我々の理論的分析は、暗黙の認知は接続性、グラフサイズ、GNNアーキテクチャに大きく依存していることを示唆している。
我々は頑健なグラフ畳み込みを導出し、ノード表現の滑らかさと暗黙の認知効果を高めることができる。
論文 参考訳(メタデータ) (2022-09-29T02:19:39Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Graph Denoising with Framelet Regularizer [25.542429117462547]
本稿では,特徴雑音と構造雑音の両面からグラフデータの正則化を行う。
本モデルでは, グラフが汚染されている場合でも, 一般的なグラフ畳み込みと比較して, 性能が著しく向上する。
論文 参考訳(メタデータ) (2021-11-05T05:17:23Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。