論文の概要: Attentional Graph Neural Network Is All You Need for Robust Massive Network Localization
- arxiv url: http://arxiv.org/abs/2311.16856v3
- Date: Mon, 07 Apr 2025 07:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-18 05:32:37.709091
- Title: Attentional Graph Neural Network Is All You Need for Robust Massive Network Localization
- Title(参考訳): 意図的なグラフニューラルネットワークは、ロバストな大規模ネットワークローカライゼーションに必要なもの
- Authors: Wenzhong Yan, Feng Yin, Juntao Wang, Geert Leus, Abdelhak M. Zoubir, Yang Tian,
- Abstract要約: 我々は,大規模ネットワークローカライゼーションという重要な非線形回帰問題に対処するための注意機構を備えたグラフニューラルネットワーク(GNN)を設計する。
グラフ畳み込みネットワーク(GCN)に基づく従来のネットワークローカライゼーション手法について概観する。
拡張として,GCN方式の感度閾値決定問題を解決するために,特別に設計された注意型GNN (AGNN) モデルを提案する。
- 参考スコア(独自算出の注目度): 26.85290529046327
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we design Graph Neural Networks (GNNs) with attention mechanisms to tackle an important yet challenging nonlinear regression problem: massive network localization. We first review our previous network localization method based on Graph Convolutional Network (GCN), which can exhibit state-of-the-art localization accuracy, even under severe Non-Line-of-Sight (NLOS) conditions, by carefully preselecting a constant threshold for determining adjacency. As an extension, we propose a specially designed Attentional GNN (AGNN) model to resolve the sensitive thresholding issue of the GCN-based method and enhance the underlying model capacity. The AGNN comprises an Adjacency Learning Module (ALM) and Multiple Graph Attention Layers (MGAL), employing distinct attention architectures to systematically address the demerits of the GCN-based method, rendering it more practical for real-world applications. Comprehensive analyses are conducted to explain the superior performance of these methods, including a theoretical analysis of the AGNN's dynamic attention property and computational complexity, along with a systematic discussion of their robust characteristic against NLOS measurements. Extensive experimental results demonstrate the effectiveness of the GCN-based and AGNN-based network localization methods. Notably, integrating attention mechanisms into the AGNN yields substantial improvements in localization accuracy, approaching the fundamental lower bound and showing approximately 37\% to 53\% reduction in localization error compared to the vanilla GCN-based method across various NLOS noise configurations. Both methods outperform all competing approaches by far in terms of localization accuracy, robustness, and computational time, especially for considerably large network sizes.
- Abstract(参考訳): 本稿では,大規模ネットワークローカライゼーションという重要な非線形回帰問題に対処するための注意機構を備えたグラフニューラルネットワーク(GNN)を設計する。
我々はまず,最新の位置決め精度を示すグラフ畳み込みネットワーク(GCN, Graph Convolutional Network)に基づく従来のネットワークローカライゼーション手法について検討した。
拡張として,GCN方式の高感度しきい値化問題を解消し,基礎となるモデル容量を向上させるために,特別に設計された注意型GNN(AGNN)モデルを提案する。
AGNNは、Adjacency Learning Module (ALM)とMultiple Graph Attention Layers (MGAL)で構成されており、GCNベースのメソッドのデメリットに体系的に対処するために、異なる注意アーキテクチャを使用している。
AGNNのダイナミックアテンション特性と計算複雑性の理論解析や,NLOS測定に対するロバストな特性に関する体系的な議論など,これらの手法の優れた性能を説明するために,包括的分析を行った。
大規模実験により,GCNおよびAGNNに基づくネットワークローカライゼーション手法の有効性が示された。
特に、AGNNに注意機構を統合することで、局所化精度が大幅に向上し、基本下限に近づき、様々なNLOSノイズ構成におけるバニラGCN法と比較して、局所化誤差が約37~53倍に減少する。
どちらの手法も、特に大規模なネットワークサイズにおいて、ローカライズ精度、ロバスト性、計算時間において、競合するアプローチをはるかに上回っている。
関連論文リスト
- A General Recipe for Contractive Graph Neural Networks -- Technical Report [4.14360329494344]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの表現を学習することで大きな人気を集めている。
GNNは、しばしば、安定性、一般化、およびノイズや敵の攻撃に対する堅牢性に関連する課題に直面している。
本稿では, SVD正則化により, 任意のGNNの収縮挙動を誘導する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T00:05:21Z) - Positional Encoder Graph Quantile Neural Networks for Geographic Data [4.277516034244117]
我々は,PE-GNN,Quantile Neural Networks,および再校正技術を完全非パラメトリックフレームワークに統合する新しい手法である,位置グラフ量子ニューラルネットワーク(PE-GQNN)を紹介する。
ベンチマークデータセットの実験では、PE-GQNNは予測精度と不確実性の定量化の両方で既存の最先端手法を著しく上回っている。
論文 参考訳(メタデータ) (2024-09-27T16:02:12Z) - Spatiotemporal Learning on Cell-embedded Graphs [6.8090864965073274]
学習可能なセル属性をノードエッジメッセージパッシングプロセスに導入し,地域特性の空間依存性をよりよく把握する。
各種PDEシステムと1つの実世界のデータセットの実験は、CeGNNが他のベースラインモデルと比較して優れた性能を発揮することを示した。
論文 参考訳(メタデータ) (2024-09-26T16:22:08Z) - Unveiling the Potential of Spiking Dynamics in Graph Representation Learning through Spatial-Temporal Normalization and Coding Strategies [15.037300421748107]
スパイキングニューラルネットワーク(SNN)は、ニューロンのエネルギー効率と事象駆動処理を再現する可能性から、かなりの関心を集めている。
本研究は,グラフ表現学習の強化におけるスパイキングダイナミクスの特質とメリットについて考察する。
スパイキングダイナミクスを取り入れたスパイクに基づくグラフニューラルネットワークモデルを提案し,新しい時空間特徴正規化(STFN)技術により強化した。
論文 参考訳(メタデータ) (2024-07-30T02:53:26Z) - SiGNN: A Spike-induced Graph Neural Network for Dynamic Graph Representation Learning [42.716744098170835]
本研究では,動的グラフ上での時空間表現の強化を学習するための,スパイク誘発グラフニューラルネットワーク(SiGNN)という新しいフレームワークを提案する。
TA機構を利用して、SiGNNはSNNの時間的ダイナミクスを効果的に活用するだけでなく、スパイクのバイナリの性質によって課される表現的制約を積極的に回避する。
実世界の動的グラフデータセットに対する大規模な実験は、ノード分類タスクにおけるSiGNNの優れた性能を示す。
論文 参考訳(メタデータ) (2024-03-11T05:19:43Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - Scalable Resource Management for Dynamic MEC: An Unsupervised
Link-Output Graph Neural Network Approach [36.32772317151467]
ディープラーニングは、タスクオフロードとリソース割り当てを最適化するために、モバイルエッジコンピューティング(MEC)でうまく採用されている。
エッジネットワークのダイナミクスは、低スケーラビリティと高トレーニングコストという、ニューラルネットワーク(NN)ベースの最適化方法における2つの課題を提起する。
本稿では,新たなリンクアウトプットGNN(LOGNN)ベースの資源管理手法を提案し,MECにおける資源割り当てを柔軟に最適化する。
論文 参考訳(メタデータ) (2023-06-15T08:21:41Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Understanding and Improving Deep Graph Neural Networks: A Probabilistic
Graphical Model Perspective [22.82625446308785]
グラフニューラルネットワーク(GNN)の理解のための新しい視点を提案する。
本研究では,深いGNNに着目し,その理解のための新しい視点を提案する。
我々はより強力なGNN:結合グラフニューラルネットワーク(CoGNet)を設計する。
論文 参考訳(メタデータ) (2023-01-25T12:02:12Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - Anomal-E: A Self-Supervised Network Intrusion Detection System based on
Graph Neural Networks [0.0]
本稿では,自己教師型ネットワーク侵入と異常検出のためのグラフニューラルネットワーク(GNN)の応用について検討する。
GNNは、グラフ構造を学習に組み込んだグラフベースのデータのためのディープラーニングアプローチである。
本稿では, エッジ特徴とグラフトポロジ構造を利用したGNNによる侵入・異常検出手法であるAnomal-Eを提案する。
論文 参考訳(メタデータ) (2022-07-14T10:59:39Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Edge-Level Explanations for Graph Neural Networks by Extending
Explainability Methods for Convolutional Neural Networks [33.20913249848369]
グラフニューラルネットワーク(GNN)は、グラフデータを入力として扱うディープラーニングモデルであり、トラフィック予測や分子特性予測といった様々なタスクに適用される。
本稿では,CNNに対する説明可能性の手法として,LIME(Local Interpretable Model-Agnostic Explanations)やGradient-Based Saliency Maps,Gradient-Weighted Class Activation Mapping(Grad-CAM)をGNNに拡張する。
実験結果から,LIMEに基づくアプローチは実環境における複数のタスクに対する最も効率的な説明可能性手法であり,その状態においても優れていたことが示唆された。
論文 参考訳(メタデータ) (2021-11-01T06:27:29Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Graph Neural Networks for Motion Planning [108.51253840181677]
低次元問題に対する高密度固定グラフ上のGNNと高次元問題に対するサンプリングベースGNNの2つの手法を提案する。
RRT(Rapidly-Exploring Random Trees)におけるクリティカルノードの特定やサンプリング分布の学習といった計画上の問題にGNNが取り組む能力について検討する。
臨界サンプリング、振り子、6つのDoFロボットアームによる実験では、GNNは従来の分析手法の改善だけでなく、完全に接続されたニューラルネットワークや畳み込みニューラルネットワークを用いた学習アプローチも示している。
論文 参考訳(メタデータ) (2020-06-11T08:19:06Z) - Binarized Graph Neural Network [65.20589262811677]
我々は二項化グラフニューラルネットワークを開発し、二項化ネットワークパラメータを用いてノードのバイナリ表現を学習する。
提案手法は既存のGNNベースの埋め込み手法にシームレスに統合できる。
実験により、提案された二項化グラフニューラルネットワーク、すなわちBGNは、時間と空間の両方の観点から、桁違いに効率的であることが示されている。
論文 参考訳(メタデータ) (2020-04-19T09:43:14Z) - Towards an Efficient and General Framework of Robust Training for Graph
Neural Networks [96.93500886136532]
グラフニューラルネットワーク(GNN)は、いくつかの基本的な推論タスクに大きく進歩している。
GNNの目覚ましい性能にもかかわらず、グラフ構造上の摂動を慎重に作り、誤った予測を下すことが観察されている。
我々は,強靭なGNNを得るために,欲求探索アルゴリズムとゼロ階法を利用する汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T15:17:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。