論文の概要: Attentional Graph Neural Networks for Robust Massive Network
Localization
- arxiv url: http://arxiv.org/abs/2311.16856v1
- Date: Tue, 28 Nov 2023 15:05:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:50:12.689672
- Title: Attentional Graph Neural Networks for Robust Massive Network
Localization
- Title(参考訳): 集中グラフニューラルネットワークによるロバストな大規模ネットワーク定位
- Authors: Wenzhong Yan, Juntao Wang, Feng Yin, Abdelhak M. Zoubir
- Abstract要約: 我々は,古典的だが難解な非線形回帰問題であるネットワークローカライゼーションに対処するために,GNNとアテンション機構を用いる。
本稿では,重度非視線伝搬の存在下での異常な安定性と精度を実現するGNNベースのネットワークローカライズ手法を提案する。
制約に対処し、GNNモデルの適用性を現実のシナリオに拡張するために、拡張された柔軟性を提供する2つの注意グラフニューラルネットワーク(AGNN)を導入します。
- 参考スコア(独自算出の注目度): 18.472406178106077
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have gained significant popularity for
classification tasks in machine learning, yet their applications to regression
problems remain limited. Concurrently, attention mechanisms have emerged as
powerful tools in sequential learning tasks. In this paper, we employ GNNs and
attention mechanisms to address a classical but challenging nonlinear
regression problem: network localization. We propose a novel GNN-based network
localization method that achieves exceptional stability and accuracy in the
presence of severe non-line-of-sight (NLOS) propagations, while eliminating the
need for laborious offline calibration or NLOS identification. Extensive
experimental results validate the effectiveness and high accuracy of our
GNN-based localization model, particularly in challenging NLOS scenarios.
However, the proposed GNN-based model exhibits limited flexibility, and its
accuracy is highly sensitive to a specific hyperparameter that determines the
graph structure. To address the limitations and extend the applicability of the
GNN-based model to real scenarios, we introduce two attentional graph neural
networks (AGNNs) that offer enhanced flexibility and the ability to
automatically learn the optimal hyperparameter for each node. Experimental
results confirm that the AGNN models are able to enhance localization accuracy,
providing a promising solution for real-world applications. We also provide
some analyses of the improved performance achieved by the AGNN models from the
perspectives of dynamic attention and signal denoising characteristics.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は機械学習の分類タスクで大きな人気を集めているが、回帰問題への応用は限定的だ。
同時に、逐次学習タスクの強力なツールとして注目のメカニズムが登場している。
本稿では,従来の非線形回帰問題であるネットワークローカライゼーションに対処するために,GNNとアテンション機構を用いる。
本稿では,高度非視線伝播(NLOS)の存在下での異常な安定性と精度を実現するとともに,努力的なオフライン校正やNLOS識別を不要としたGNNベースのネットワークローカライゼーション手法を提案する。
広汎な実験結果から,GNNに基づく局所化モデルの有効性と精度,特に難解なNLOSシナリオにおいて検証した。
しかし,提案したGNNモデルでは柔軟性が限られており,その精度はグラフ構造を決定する特定のハイパーパラメータに非常に敏感である。
制約に対処し、GNNモデルの適用性を実シナリオに拡張するために、各ノードに対して最適なハイパーパラメータを自動的に学習する柔軟性と能力を提供する2つの注意グラフニューラルネットワーク(AGNN)を導入する。
実験の結果,AGNNモデルではローカライゼーションの精度が向上し,実世界のアプリケーションに有望なソリューションを提供することがわかった。
また、ダイナミックアテンションと信号デノゲーション特性の観点から、AGNNモデルにより達成された改善性能について分析する。
関連論文リスト
- A General Recipe for Contractive Graph Neural Networks -- Technical Report [4.14360329494344]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現を学習することで大きな人気を集めている。
GNNは、しばしば、安定性、一般化、およびノイズや敵の攻撃に対する堅牢性に関連する課題に直面している。
本稿では, SVD正則化により, 任意のGNNの収縮挙動を誘導する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T00:05:21Z) - Unveiling the Potential of Spiking Dynamics in Graph Representation Learning through Spatial-Temporal Normalization and Coding Strategies [15.037300421748107]
スパイキングニューラルネットワーク(SNN)は、ニューロンのエネルギー効率と事象駆動処理を再現する可能性から、かなりの関心を集めている。
本研究は,グラフ表現学習の強化におけるスパイキングダイナミクスの特質とメリットについて考察する。
スパイキングダイナミクスを取り入れたスパイクに基づくグラフニューラルネットワークモデルを提案し,新しい時空間特徴正規化(STFN)技術により強化した。
論文 参考訳(メタデータ) (2024-07-30T02:53:26Z) - SiGNN: A Spike-induced Graph Neural Network for Dynamic Graph Representation Learning [42.716744098170835]
本研究では,動的グラフ上での時空間表現の強化を学習するための,スパイク誘発グラフニューラルネットワーク(SiGNN)という新しいフレームワークを提案する。
TA機構を利用して、SiGNNはSNNの時間的ダイナミクスを効果的に活用するだけでなく、スパイクのバイナリの性質によって課される表現的制約を積極的に回避する。
実世界の動的グラフデータセットに対する大規模な実験は、ノード分類タスクにおけるSiGNNの優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-11T05:19:43Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective [22.82625446308785]
グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
論文 参考訳(メタデータ) (2023-01-25T12:02:12Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。