論文の概要: Missing Data Imputation with Graph Laplacian Pyramid Network
- arxiv url: http://arxiv.org/abs/2304.04474v1
- Date: Mon, 10 Apr 2023 09:23:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 15:27:32.900356
- Title: Missing Data Imputation with Graph Laplacian Pyramid Network
- Title(参考訳): graph laplacian pyramid networkを用いたデータインプテーションの欠如
- Authors: Weiqi Zhang, Guanlve Li, Jianheng Tang, Jia Li and Fugee Tsung
- Abstract要約: 初歩的な「ドラフト」計算はディリクレのエネルギーを減少させるので、全体のエネルギーを回復するためにはエネルギー維持の「細かな」ステップが必要である。
本稿では,ディリクレエネルギーの保存と計算性能の向上を目的として,Graph Laplacian Pyramid Network (GLPN) という新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 21.288857468278906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data imputation is a prevalent and important task due to the ubiquitousness
of missing data. Many efforts try to first draft a completed data and second
refine to derive the imputation results, or "draft-then-refine" for short. In
this work, we analyze this widespread practice from the perspective of
Dirichlet energy. We find that a rudimentary "draft" imputation will decrease
the Dirichlet energy, thus an energy-maintenance "refine" step is in need to
recover the overall energy. Since existing "refine" methods such as Graph
Convolutional Network (GCN) tend to cause further energy decline, in this work,
we propose a novel framework called Graph Laplacian Pyramid Network (GLPN) to
preserve Dirichlet energy and improve imputation performance. GLPN consists of
a U-shaped autoencoder and residual networks to capture global and local
detailed information respectively. By extensive experiments on several
real-world datasets, GLPN shows superior performance over state-of-the-art
methods under three different missing mechanisms. Our source code is available
at https://github.com/liguanlue/GLPN.
- Abstract(参考訳): データ計算は、欠落したデータのユビキタス性のため、一般的かつ重要なタスクである。
多くの努力は、最初に完成したデータを草案し、インプテーションの結果を導出するために第2の精錬を試みる。
本研究では,ディリクレエネルギーの観点から,この広範にわたる実践を分析する。
初歩的な「ドラフト」計算はディリクレのエネルギーを減少させるので、全体のエネルギーを回復するエネルギー維持の「精製」ステップが必要である。
グラフ畳み込みネットワーク(GCN)のような既存の「微細化」手法はエネルギー低下を引き起こす傾向にあるため,本稿では,ディリクレエネルギーの保存と計算性能の向上を目的としたグラフラプラシアンピラミッドネットワーク(GLPN)と呼ばれる新しいフレームワークを提案する。
GLPNはU字型オートエンコーダと残余ネットワークから構成され、それぞれグローバルおよびローカルの詳細情報をキャプチャする。
いくつかの実世界のデータセットに対する広範な実験により、GLPNは3つの異なるメカニズムの下で最先端の手法よりも優れた性能を示す。
ソースコードはhttps://github.com/liguanlue/glpn.comから入手できます。
関連論文リスト
- Rethinking Reconstruction-based Graph-Level Anomaly Detection: Limitations and a Simple Remedy [32.624939333311374]
Graph-AEsの注目すべき応用は、グラフレベル異常検出(GLAD)である。
再建フリップと呼ばれる非自明な反例を報告する。
MUSE という名前の新規でシンプルなGLAD法を提案する。
論文 参考訳(メタデータ) (2024-10-27T07:41:51Z) - DPGAN: A Dual-Path Generative Adversarial Network for Missing Data Imputation in Graphs [17.847551850315895]
本稿では,DPGAN(Dual-Pathrative Adversarial Network)と呼ばれる新しいフレームワークを提案する。
DPGANは、欠落したデータと同時に処理し、過度にスムースな問題を回避することができる。
さまざまなベンチマークデータセットにわたる総合的な実験は、DPGANが既存の最先端の計算アルゴリズムよりも優れていなくても、一貫して競合していることを裏付けている。
論文 参考訳(メタデータ) (2024-04-26T05:26:10Z) - Navigating Complexity: Toward Lossless Graph Condensation via Expanding Window Matching [26.303436980548174]
グラフ凝縮は、コンパクトなグラフデータセットを合成することで、大規模グラフデータセットのサイズを減らすことを目的としている。
既存の手法では、特定のデータセットの元のグラフを正確に複製することができないことが多い。
本稿では,これまで無視されていた監視信号をブリッジすることで,無テクトトロスグラフの凝縮化に向けた最初の試みを行う。
論文 参考訳(メタデータ) (2024-02-07T16:32:02Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Graph Transformers for Large Graphs [57.19338459218758]
この研究は、モデルの特徴と重要な設計制約を識別することに焦点を当てた、単一の大規模グラフでの表現学習を前進させる。
この研究の重要な革新は、局所的な注意機構と組み合わされた高速な近傍サンプリング技術の作成である。
ogbn-products と snap-patents の3倍の高速化と16.8%の性能向上を報告し、ogbn-100M で LargeGT を5.9% の性能改善で拡張した。
論文 参考訳(メタデータ) (2023-12-18T11:19:23Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Scaling Up Graph Neural Networks Via Graph Coarsening [18.176326897605225]
グラフニューラルネットワーク(GNN)のスケーラビリティは、マシンラーニングにおける大きな課題のひとつだ。
本稿では,GNNのスケーラブルなトレーニングにグラフ粗大化を用いることを提案する。
既成の粗大化法を単純に適用すれば,分類精度を著しく低下させることなく,ノード数を最大10倍に削減できることを示す。
論文 参考訳(メタデータ) (2021-06-09T15:46:17Z) - Graph Highway Networks [77.38665506495553]
グラフ畳み込みネットワーク(GCN)は、グラフ表現の有効性と効率性から、グラフ表現の学習に広く利用されている。
彼らは、多くの層が積み重ねられたとき、学習された表現が類似したベクトルに収束するという悪名高い過度に滑らかな問題に悩まされる。
本稿では,GCN学習プロセスにおける均一性と不均一性との間のトレードオフのバランスをとるため,ゲーティングユニットを利用したグラフハイウェイネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-09T16:26:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。