論文の概要: Gegenbauer Graph Neural Networks for Time-varying Signal Reconstruction
- arxiv url: http://arxiv.org/abs/2403.19800v1
- Date: Thu, 28 Mar 2024 19:29:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 17:23:49.371402
- Title: Gegenbauer Graph Neural Networks for Time-varying Signal Reconstruction
- Title(参考訳): 時変信号再構成のためのゲゲンバウアーグラフニューラルネットワーク
- Authors: Jhon A. Castro-Correa, Jhony H. Giraldo, Mohsen Badiey, Fragkiskos D. Malliaros,
- Abstract要約: 時間変化グラフ信号は、幅広い応用を伴う機械学習と信号処理において重要な問題である。
本稿では,下流タスクの精度を高めるために学習モジュールを組み込んだ新しい手法を提案する。
提案手法の有効性を評価するために,実データセットに関する広範な実験を行った。
- 参考スコア(独自算出の注目度): 4.6210788730570584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing time-varying graph signals (or graph time-series imputation) is a critical problem in machine learning and signal processing with broad applications, ranging from missing data imputation in sensor networks to time-series forecasting. Accurately capturing the spatio-temporal information inherent in these signals is crucial for effectively addressing these tasks. However, existing approaches relying on smoothness assumptions of temporal differences and simple convex optimization techniques have inherent limitations. To address these challenges, we propose a novel approach that incorporates a learning module to enhance the accuracy of the downstream task. To this end, we introduce the Gegenbauer-based graph convolutional (GegenConv) operator, which is a generalization of the conventional Chebyshev graph convolution by leveraging the theory of Gegenbauer polynomials. By deviating from traditional convex problems, we expand the complexity of the model and offer a more accurate solution for recovering time-varying graph signals. Building upon GegenConv, we design the Gegenbauer-based time Graph Neural Network (GegenGNN) architecture, which adopts an encoder-decoder structure. Likewise, our approach also utilizes a dedicated loss function that incorporates a mean squared error component alongside Sobolev smoothness regularization. This combination enables GegenGNN to capture both the fidelity to ground truth and the underlying smoothness properties of the signals, enhancing the reconstruction performance. We conduct extensive experiments on real datasets to evaluate the effectiveness of our proposed approach. The experimental results demonstrate that GegenGNN outperforms state-of-the-art methods, showcasing its superior capability in recovering time-varying graph signals.
- Abstract(参考訳): 時間変化グラフ信号(あるいはグラフ時系列計算)の再構成は、センサネットワークにおけるデータ計算の欠如から時系列予測に至るまで、幅広いアプリケーションで機械学習と信号処理を行う上で重要な問題である。
これらの信号に固有の時空間情報の正確な取得は、これらの課題に効果的に対処するために重要である。
しかし、時間差の滑らかさを前提とした既存手法や単純な凸最適化手法には固有の制限がある。
これらの課題に対処するため、下流タスクの精度を高めるために学習モジュールを組み込んだ新しいアプローチを提案する。
この目的のために、ゲゲンバウアー型グラフ畳み込み作用素(GegenConv)を導入し、ゲゲンバウアー多項式の理論を利用して従来のチェビシェフグラフ畳み込みを一般化する。
従来の凸問題から逸脱することで、モデルの複雑さを拡大し、時間変化のあるグラフ信号を復元するためのより正確なソリューションを提供する。
GegenConvに基づいて、エンコーダデコーダ構造を採用したGegenbauerベースの時間グラフニューラルネットワーク(GegenGNN)アーキテクチャを設計する。
また,本手法では,ソボレフの滑らか度正規化とともに平均二乗誤差成分を組み込んだ専用損失関数も利用している。
この組み合わせにより、GegenGNNは、真理と信号の基本的な滑らか性の両方をキャプチャし、再構成性能を向上させることができる。
提案手法の有効性を評価するために,実データセットに関する広範な実験を行った。
実験の結果、GegenGNNは最先端の手法よりも優れており、時間変動グラフ信号の回復に優れた能力を示している。
関連論文リスト
- FourierGNN: Rethinking Multivariate Time Series Forecasting from a Pure
Graph Perspective [48.00240550685946]
現在の最先端グラフニューラルネットワーク(GNN)ベースの予測手法は、通常、シリーズ間(空間)のダイナミックスとシリーズ内(時間)の依存関係をキャプチャするために、グラフネットワーク(GCNなど)と時間ネットワーク(LSTMなど)の両方を必要とする。
提案するフーリエグラフ演算子(FGO)を積み重ねて,フーリエ空間で行列乗算を行うことにより,新しいフーリエグラフニューラルネットワーク(FourierGNN)を提案する。
7つのデータセットに対する実験は、より効率が良く、パラメータも少ないという優れた性能を示した。
論文 参考訳(メタデータ) (2023-11-10T17:13:26Z) - Distance Weighted Trans Network for Image Completion [52.318730994423106]
本稿では,DWT(Distance-based Weighted Transformer)を利用した画像コンポーネント間の関係をよりよく理解するためのアーキテクチャを提案する。
CNNは、粗い事前の局所的なテクスチャ情報を強化するために使用される。
DWTブロックは、特定の粗いテクスチャやコヒーレントな視覚構造を復元するために使用される。
論文 参考訳(メタデータ) (2023-10-11T12:46:11Z) - Time-varying Signals Recovery via Graph Neural Networks [6.206392817156767]
時間変動グラフ信号の回復のための時間グラフニューラルネットワーク(TimeGNN)を提案する。
本アルゴリズムは,平均二乗誤差関数とソボレフ滑らか度演算子からなる特殊損失を持つエンコーダデコーダアーキテクチャを用いる。
論文 参考訳(メタデータ) (2023-02-22T11:50:39Z) - Space-Time Graph Neural Networks with Stochastic Graph Perturbations [100.31591011966603]
時空間グラフニューラルネットワーク(ST-GNN)は、時間変動データの効率的なグラフ表現を学習する。
本稿では,ST-GNNの特性を再検討し,安定なグラフ安定性を示す。
解析の結果,ST-GNNは時間変化グラフ上での移動学習に適していることが示唆された。
論文 参考訳(メタデータ) (2022-10-28T16:59:51Z) - Scalable Spatiotemporal Graph Neural Networks [14.415967477487692]
グラフニューラルネットワーク(GNN)は、しばしば予測アーキテクチャのコアコンポーネントである。
ほとんどの時間前GNNでは、計算複雑性はグラフ内のリンクの回数のシーケンスの長さの2乗係数までスケールする。
本稿では,時間的・空間的両方のダイナミックスを効率的に符号化するスケーラブルなアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-09-14T09:47:38Z) - Graph-Time Convolutional Neural Networks: Architecture and Theoretical
Analysis [12.995632804090198]
グラフ時間畳み込みニューラルネットワーク(GTCNN)を学習支援の原則アーキテクチャとして導入する。
このアプローチはどんな種類のプロダクトグラフでも機能し、パラメトリックグラフを導入して、プロダクトの時間的結合も学べます。
GTCNNが最先端のソリューションと好意的に比較できることを示す。
論文 参考訳(メタデータ) (2022-06-30T10:20:52Z) - Learning to Reconstruct Missing Data from Spatiotemporal Graphs with
Sparse Observations [11.486068333583216]
本稿では、欠落したデータポイントを再構築するための効果的なモデル学習の課題に取り組む。
我々は,高度にスパースな観測値の集合を与えられた注意に基づくアーキテクチャのクラスを提案し,時間と空間における点の表現を学習する。
技術状況と比較して、我々のモデルは予測エラーを伝播したり、前方および後方の時間依存性をエンコードするために双方向モデルを必要とすることなくスパースデータを処理します。
論文 参考訳(メタデータ) (2022-05-26T16:40:48Z) - Convolutional generative adversarial imputation networks for
spatio-temporal missing data in storm surge simulations [86.5302150777089]
GAN(Generative Adversarial Imputation Nets)とGANベースの技術は、教師なし機械学習手法として注目されている。
提案手法を Con Conval Generative Adversarial Imputation Nets (Conv-GAIN) と呼ぶ。
論文 参考訳(メタデータ) (2021-11-03T03:50:48Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。