論文の概要: Attentional Graph Neural Networks for Robust Massive Network
Localization
- arxiv url: http://arxiv.org/abs/2311.16856v2
- Date: Wed, 14 Feb 2024 11:21:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 19:09:27.221773
- Title: Attentional Graph Neural Networks for Robust Massive Network
Localization
- Title(参考訳): 集中グラフニューラルネットワークによるロバストな大規模ネットワーク定位
- Authors: Wenzhong Yan, Juntao Wang, Feng Yin, Yang Tian, Abdelhak M. Zoubir
- Abstract要約: グラフニューラルネットワーク(GNN)は、機械学習における分類タスクの顕著なツールとして登場した。
本稿では,GNNとアテンション機構を統合し,ネットワークローカライゼーションという難解な非線形回帰問題に対処する。
我々はまず,厳密な非視線(NLOS)条件下でも例外的な精度を示すグラフ畳み込みネットワーク(GCN)に基づく新しいネットワークローカライゼーション手法を提案する。
- 参考スコア(独自算出の注目度): 20.416879207269446
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, Graph neural networks (GNNs) have emerged as a prominent
tool for classification tasks in machine learning. However, their application
in regression tasks remains underexplored. To tap the potential of GNNs in
regression, this paper integrates GNNs with attention mechanism, a technique
that revolutionized sequential learning tasks with its adaptability and
robustness, to tackle a challenging nonlinear regression problem: network
localization. We first introduce a novel network localization method based on
graph convolutional network (GCN), which exhibits exceptional precision even
under severe non-line-of-sight (NLOS) conditions, thereby diminishing the need
for laborious offline calibration or NLOS identification. We further propose an
attentional graph neural network (AGNN) model, aimed at improving the limited
flexibility and mitigating the high sensitivity to the hyperparameter of the
GCN-based method. The AGNN comprises two crucial modules, each designed with
distinct attention architectures to address specific issues associated with the
GCN-based method, rendering it more practical in real-world scenarios.
Experimental results substantiate the efficacy of our proposed GCN-based method
and AGNN model, as well as the enhancements of AGNN model. Additionally, we
delve into the performance improvements of AGNN model by analyzing it from the
perspectives of dynamic attention and computational complexity.
- Abstract(参考訳): 近年、グラフニューラルネットワーク(GNN)が機械学習の分類タスクの顕著なツールとして登場している。
しかし、回帰処理におけるそれらの応用はいまだ未定である。
本稿では,GNNを適応性と頑健性によって逐次学習タスクに革命をもたらす手法であるアテンション機構と統合し,ネットワークローカライゼーション(英語版)という難解な非線形回帰問題に対処する。
まず,重度のノンライン・オブ・アイズ(nlos)条件下においても異常な精度を示すグラフ畳み込みネットワーク(gcn)に基づく新たなネットワークローカライズ手法を導入し,オフライン校正やnlos識別の手間を軽減した。
我々はさらに,限定された柔軟性の向上とgcn方式のハイパーパラメータに対する高感度化を目的とした注意グラフニューラルネットワーク(agnn)モデルを提案する。
AGNNは2つの重要なモジュールから構成されており、それぞれがGCNベースのメソッドに関連する特定の問題に対処するために異なる注意アーキテクチャで設計されている。
実験により,提案したGCN法とAGNNモデルの有効性,およびAGNNモデルの強化効果について検証した。
さらに、動的注意と計算複雑性の観点からAGNNモデルの性能改善について検討する。
関連論文リスト
- A General Recipe for Contractive Graph Neural Networks -- Technical Report [4.14360329494344]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現を学習することで大きな人気を集めている。
GNNは、しばしば、安定性、一般化、およびノイズや敵の攻撃に対する堅牢性に関連する課題に直面している。
本稿では, SVD正則化により, 任意のGNNの収縮挙動を誘導する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T00:05:21Z) - Unveiling the Potential of Spiking Dynamics in Graph Representation Learning through Spatial-Temporal Normalization and Coding Strategies [15.037300421748107]
スパイキングニューラルネットワーク(SNN)は、ニューロンのエネルギー効率と事象駆動処理を再現する可能性から、かなりの関心を集めている。
本研究は,グラフ表現学習の強化におけるスパイキングダイナミクスの特質とメリットについて考察する。
スパイキングダイナミクスを取り入れたスパイクに基づくグラフニューラルネットワークモデルを提案し,新しい時空間特徴正規化(STFN)技術により強化した。
論文 参考訳(メタデータ) (2024-07-30T02:53:26Z) - SiGNN: A Spike-induced Graph Neural Network for Dynamic Graph Representation Learning [42.716744098170835]
本研究では,動的グラフ上での時空間表現の強化を学習するための,スパイク誘発グラフニューラルネットワーク(SiGNN)という新しいフレームワークを提案する。
TA機構を利用して、SiGNNはSNNの時間的ダイナミクスを効果的に活用するだけでなく、スパイクのバイナリの性質によって課される表現的制約を積極的に回避する。
実世界の動的グラフデータセットに対する大規模な実験は、ノード分類タスクにおけるSiGNNの優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-11T05:19:43Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective [22.82625446308785]
グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
論文 参考訳(メタデータ) (2023-01-25T12:02:12Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。