論文の概要: EDGE++: Improved Training and Sampling of EDGE
- arxiv url: http://arxiv.org/abs/2310.14441v1
- Date: Sun, 22 Oct 2023 22:54:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 23:41:09.838714
- Title: EDGE++: Improved Training and Sampling of EDGE
- Title(参考訳): EDGE++: EDGEのトレーニングとサンプリングの改善
- Authors: Mingyang Wu, Xiaohui Chen, Liping Liu
- Abstract要約: これらの問題に対処するために,EDGEモデルの強化を提案する。
具体的には,各時刻におけるアクティブノード数を最適化する等級別ノイズスケジュールを導入する。
また、生成過程を微調整し、合成されたネットワークと真のネットワークとの類似性をよりよく制御できる改良されたサンプリング手法を提案する。
- 参考スコア(独自算出の注目度): 17.646159460584926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently developed deep neural models like NetGAN, CELL, and Variational
Graph Autoencoders have made progress but face limitations in replicating key
graph statistics on generating large graphs. Diffusion-based methods have
emerged as promising alternatives, however, most of them present challenges in
computational efficiency and generative performance. EDGE is effective at
modeling large networks, but its current denoising approach can be inefficient,
often leading to wasted computational resources and potential mismatches in its
generation process. In this paper, we propose enhancements to the EDGE model to
address these issues. Specifically, we introduce a degree-specific noise
schedule that optimizes the number of active nodes at each timestep,
significantly reducing memory consumption. Additionally, we present an improved
sampling scheme that fine-tunes the generative process, allowing for better
control over the similarity between the synthesized and the true network. Our
experimental results demonstrate that the proposed modifications not only
improve the efficiency but also enhance the accuracy of the generated graphs,
offering a robust and scalable solution for graph generation tasks.
- Abstract(参考訳): 最近、netgan、cell、 variational graph autoencoderなどのディープニューラルネットワークモデルが進歩しているが、大きなグラフを生成する上でキーグラフ統計を複製する上での限界に直面している。
拡散に基づく手法は有望な代替手段として登場したが、そのほとんどは計算効率と生成性能に課題を呈している。
EDGEは大規模ネットワークのモデリングに有効であるが、現在のデノナイジングアプローチは非効率であり、しばしばその生成過程における無駄な計算資源と潜在的なミスマッチにつながる。
本稿では,これらの問題に対処するためのEDGEモデルの改良を提案する。
具体的には、各時刻におけるアクティブノード数を最適化し、メモリ消費を大幅に削減する等級別ノイズスケジュールを導入する。
さらに、生成過程を微調整し、合成されたネットワークと真のネットワークの類似性をよりよく制御できる改良されたサンプリング方式を提案する。
実験の結果,提案手法は効率を向上させるだけでなく,生成したグラフの精度も向上し,グラフ生成タスクに堅牢でスケーラブルなソリューションを提供することがわかった。
関連論文リスト
- Haste Makes Waste: A Simple Approach for Scaling Graph Neural Networks [37.41604955004456]
グラフニューラルネットワーク(GNN)はグラフ表現学習において顕著な成功を収めている。
GNNを大規模グラフのアプリケーションに拡張するための様々なサンプリング手法が提案されている。
論文 参考訳(メタデータ) (2024-10-07T18:29:02Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Efficient Heterogeneous Graph Learning via Random Projection [58.4138636866903]
不均一グラフニューラルネットワーク(HGNN)は、異種グラフを深層学習するための強力なツールである。
最近のプリ計算ベースのHGNNは、一時間メッセージパッシングを使用して不均一グラフを正規形テンソルに変換する。
我々はRandom Projection Heterogeneous Graph Neural Network (RpHGNN) というハイブリッド計算前HGNNを提案する。
論文 参考訳(メタデータ) (2023-10-23T01:25:44Z) - Efficient and Degree-Guided Graph Generation via Discrete Diffusion
Modeling [20.618785908770356]
拡散に基づく生成グラフモデルは高品質の小さなグラフを生成するのに有効であることが証明されている。
しかし、グラフ統計を推奨する何千ものノードを含む巨大なグラフを生成するには、よりスケーラブルである必要がある。
本稿では,大きなグラフを持つ生成タスクに対処する新しい拡散型生成グラフモデルであるEDGEを提案する。
論文 参考訳(メタデータ) (2023-05-06T18:32:27Z) - Deep Graph Reprogramming [112.34663053130073]
グラフニューラルネットワーク(GNN)に適したタスク再利用モデル「ディープグラフ再プログラミング」
本稿では,モデル再プログラミングパラダイムと並行して,革新的なデータ再プログラミングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-04-28T02:04:29Z) - Learning Cooperative Beamforming with Edge-Update Empowered Graph Neural
Networks [29.23937571816269]
グラフエッジ上での協調ビームフォーミングを学習するためのエッジグラフニューラルネットワーク(Edge-GNN)を提案する。
提案したEdge-GNNは、最先端の手法よりも計算時間をはるかに短くして、より高い和率を達成する。
論文 参考訳(メタデータ) (2022-11-23T02:05:06Z) - Spiking Variational Graph Auto-Encoders for Efficient Graph
Representation Learning [10.65760757021534]
本稿では,効率的なグラフ表現学習のためのSNNに基づく深層生成手法,すなわちSpking Variational Graph Auto-Encoders (S-VGAE)を提案する。
我々は,複数のベンチマークグラフデータセット上でリンク予測実験を行い,この結果から,グラフ表現学習における他のANNやSNNに匹敵する性能で,より少ないエネルギーを消費することを示した。
論文 参考訳(メタデータ) (2022-10-24T12:54:41Z) - Efficient Dynamic Graph Representation Learning at Scale [66.62859857734104]
本稿では,学習損失による時間依存性を選択的に表現し,計算の並列性を改善するための効率的な動的グラフ lEarning (EDGE) を提案する。
EDGEは、数百万のノードと数億の時間的イベントを持つ動的グラフにスケールでき、新しい最先端(SOTA)パフォーマンスを実現することができる。
論文 参考訳(メタデータ) (2021-12-14T22:24:53Z) - Graph Neural Network based scheduling : Improved throughput under a
generalized interference model [3.911413922612859]
本稿では,アドホックネットワークのためのグラフ畳み込みニューラルネットワーク(GCN)に基づくスケジューリングアルゴリズムを提案する。
この研究で注目すべき特徴は、ニューラルネットワークをトレーニングするためにラベル付きデータセット(NP-hard to compute)を必要としないことである。
論文 参考訳(メタデータ) (2021-10-31T10:36:11Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。