論文の概要: Graph Neural Network for Accurate and Low-complexity SAR ATR
- arxiv url: http://arxiv.org/abs/2305.07119v1
- Date: Thu, 11 May 2023 20:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-15 14:48:02.278473
- Title: Graph Neural Network for Accurate and Low-complexity SAR ATR
- Title(参考訳): 高精度・低複雑さSAR ATRのためのグラフニューラルネットワーク
- Authors: Bingyi Zhang, Sasindu Wijeratne, Rajgopal Kannan, Viktor Prasanna,
Carl Busart
- Abstract要約: 高精度かつ低レイテンシなSAR ATRを実現するために,グラフニューラルネットワーク(GNN)モデルを提案する。
提案したGNNモデルは計算複雑性が低く,高い精度を実現する。
現状のCNNと比較して、提案したGNNモデルは、計算コストが1/3000、モデルサイズが1/80である。
- 参考スコア(独自算出の注目度): 2.9766397696234996
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic Aperture Radar (SAR) Automatic Target Recognition (ATR) is the key
technique for remote sensing image recognition. The state-of-the-art works
exploit the deep convolutional neural networks (CNNs) for SAR ATR, leading to
high computation costs. These deep CNN models are unsuitable to be deployed on
resource-limited platforms. In this work, we propose a graph neural network
(GNN) model to achieve accurate and low-latency SAR ATR. We transform the input
SAR image into the graph representation. The proposed GNN model consists of a
stack of GNN layers that operates on the input graph to perform target
classification. Unlike the state-of-the-art CNNs, which need heavy convolution
operations, the proposed GNN model has low computation complexity and achieves
comparable high accuracy. The GNN-based approach enables our proposed
\emph{input pruning} strategy. By filtering out the irrelevant vertices in the
input graph, we can reduce the computation complexity. Moreover, we propose the
\emph{model pruning} strategy to sparsify the model weight matrices which
further reduces the computation complexity. We evaluate the proposed GNN model
on the MSTAR dataset and ship discrimination dataset. The evaluation results
show that the proposed GNN model achieves 99.38\% and 99.7\% classification
accuracy on the above two datasets, respectively. The proposed pruning
strategies can prune 98.6\% input vertices and 97\% weight entries with
negligible accuracy loss. Compared with the state-of-the-art CNNs, the proposed
GNN model has only 1/3000 computation cost and 1/80 model size.
- Abstract(参考訳): The Synthetic Aperture Radar (SAR) Automatic Target Recognition (ATR)はリモートセンシング画像認識の鍵となる技術である。
最先端の研究は、SAR ATRの深部畳み込みニューラルネットワーク(CNN)を活用し、高い計算コストをもたらす。
これらの深いCNNモデルは、リソース制限されたプラットフォームにデプロイするには適していません。
本研究では,高精度かつ低レイテンシなSAR ATRを実現するグラフニューラルネットワーク(GNN)モデルを提案する。
入力されたSAR画像をグラフ表現に変換する。
提案したGNNモデルは、入力グラフ上で動作し、ターゲット分類を行うGNN層のスタックで構成されている。
大量の畳み込み演算を必要とする最先端のCNNとは異なり、提案したGNNモデルは計算複雑性が低く、高い精度を実現する。
GNNに基づくアプローチは,提案したemph{input pruning}戦略を実現する。
入力グラフの無関係な頂点をフィルタリングすることで、計算の複雑さを低減できる。
さらに,モデル重み行列をスパース化し,計算の複雑さを更に低減する \emph{model pruning} 戦略を提案する。
MSTARデータセットと船舶識別データセットに基づいて提案したGNNモデルを評価する。
評価の結果,上記の2つのデータセットにおいて,提案モデルがそれぞれ99.38\%,99.7\%の分類精度を達成した。
プルーニング戦略は、98.6\%の入力頂点と97\%の重みエントリを無視できる精度損失を伴う。
現状のCNNと比較して、提案したGNNモデルは、計算コストが1/3000、モデルサイズが1/80である。
関連論文リスト
- Graph Mining under Data scarcity [6.229055041065048]
汎用グラフニューラルネットワーク(GNN)上に適用可能な不確実性推定フレームワークを提案する。
エンド・ツー・エンドの設定で、$n$-way、$k$-shotという古典的なエピソード学習パラダイムの下でこれらのモデルをトレーニングします。
提案手法は,GNNを用いたグラフ上のFew-shotノード分類における不確実性推定器の有効性を示すベースラインよりも優れる。
論文 参考訳(メタデータ) (2024-06-07T10:50:03Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Accurate, Low-latency, Efficient SAR Automatic Target Recognition on
FPGA [3.251765107970636]
合成開口レーダ(SAR)自動目標認識(ATR)はリモートセンシング画像認識の鍵となる技術である。
SAR ATRのための最先端の畳み込みニューラルネットワーク(CNN)は、エンハンハイ計算コストとエンハンラージメモリフットプリントに悩まされている。
本稿では,これらの問題に対処するため,FPGA 上でモデルアーキテクチャを包括的に設計する手法を提案する。
論文 参考訳(メタデータ) (2023-01-04T05:35:30Z) - Robust Graph Neural Networks using Weighted Graph Laplacian [1.8292714902548342]
グラフニューラルネットワーク(GNN)は、入力データにおけるノイズや敵攻撃に対して脆弱である。
重み付きラプラシアンGNN(RWL-GNN)として知られるGNNの強化のための汎用フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-03T05:36:35Z) - Network In Graph Neural Network [9.951298152023691]
本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
論文 参考訳(メタデータ) (2021-11-23T03:58:56Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。