論文の概要: Data Imputation from the Perspective of Graph Dirichlet Energy
- arxiv url: http://arxiv.org/abs/2304.04474v2
- Date: Tue, 30 Jul 2024 09:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-31 23:09:12.638280
- Title: Data Imputation from the Perspective of Graph Dirichlet Energy
- Title(参考訳): グラフディリクレエネルギーの観点からのデータ計算
- Authors: Weiqi Zhang, Guanlue Li, Jianheng Tang, Jia Li, Fugee Tsung,
- Abstract要約: グラフラプラシアンピラミッドネットワーク(GLPN)と呼ばれるデータ計算のための新しいフレームワークを導入する。
GLPNはU字型のオートエンコーダと残余ネットワークを組み込んで、グローバルとローカルの両方の詳細を効果的にキャプチャする。
3つの異なるデータメカニズムにまたがって、最先端のメソッドを一貫して上回る。
- 参考スコア(独自算出の注目度): 28.12499308535617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data imputation is a crucial task due to the widespread occurrence of missing data. Many methods adopt a two-step approach: initially crafting a preliminary imputation (the "draft") and then refining it to produce the final missing data imputation result, commonly referred to as "draft-then-refine". In our study, we examine this prevalent strategy through the lens of graph Dirichlet energy. We observe that a basic "draft" imputation tends to decrease the Dirichlet energy. Therefore, a subsequent "refine" step is necessary to restore the overall energy balance. Existing refinement techniques, such as the Graph Convolutional Network (GCN), often result in further energy reduction. To address this, we introduce a new framework, the Graph Laplacian Pyramid Network (GLPN). GLPN incorporates a U-shaped autoencoder and residual networks to capture both global and local details effectively. Through extensive experiments on multiple real-world datasets, GLPN consistently outperforms state-of-the-art methods across three different missing data mechanisms. The code is available at https://github.com/liguanlue/GLPN.
- Abstract(参考訳): データ計算は、欠落したデータが広範囲に発生するため、重要なタスクである。
多くの手法が2段階のアプローチを採用する: 最初は予備的な計算("draft")を作成し、次にそれを精製して、最後に欠落したデータ計算結果("draft-then-refine"と呼ばれる)を生成する。
本研究では,グラフディリクレエネルギーのレンズを用いて,この戦略を検証した。
我々は、基本的な「ドラフト」計算がディリクレエネルギーを減少させる傾向があることを観察する。
したがって、全体のエネルギー収支を回復するためには、その後の「細かな」ステップが必要である。
グラフ畳み込みネットワーク(GCN)のような既存の改良技術は、しばしばさらなるエネルギー削減をもたらす。
そこで我々は,新しいフレームワークであるGraph Laplacian Pyramid Network (GLPN)を紹介した。
GLPNはU字型のオートエンコーダと残余ネットワークを組み込んで、グローバルとローカルの両方の詳細を効果的にキャプチャする。
複数の実世界のデータセットに関する広範な実験を通じて、GLPNは3つの異なるデータメカニズムで常に最先端のメソッドよりも優れています。
コードはhttps://github.com/liguanlue/GLPN.comで公開されている。
関連論文リスト
- Rethinking Reconstruction-based Graph-Level Anomaly Detection: Limitations and a Simple Remedy [32.624939333311374]
Graph-AEsの注目すべき応用は、グラフレベル異常検出(GLAD)である。
再建フリップと呼ばれる非自明な反例を報告する。
MUSE という名前の新規でシンプルなGLAD法を提案する。
論文 参考訳(メタデータ) (2024-10-27T07:41:51Z) - DPGAN: A Dual-Path Generative Adversarial Network for Missing Data Imputation in Graphs [17.847551850315895]
本稿では,DPGAN(Dual-Pathrative Adversarial Network)と呼ばれる新しいフレームワークを提案する。
DPGANは、欠落したデータと同時に処理し、過度にスムースな問題を回避することができる。
さまざまなベンチマークデータセットにわたる総合的な実験は、DPGANが既存の最先端の計算アルゴリズムよりも優れていなくても、一貫して競合していることを裏付けている。
論文 参考訳(メタデータ) (2024-04-26T05:26:10Z) - Navigating Complexity: Toward Lossless Graph Condensation via Expanding Window Matching [26.303436980548174]
グラフ凝縮は、コンパクトなグラフデータセットを合成することで、大規模グラフデータセットのサイズを減らすことを目的としている。
既存の手法では、特定のデータセットの元のグラフを正確に複製することができないことが多い。
本稿では,これまで無視されていた監視信号をブリッジすることで,無テクトトロスグラフの凝縮化に向けた最初の試みを行う。
論文 参考訳(メタデータ) (2024-02-07T16:32:02Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。