論文の概要: Accurate, Low-latency, Efficient SAR Automatic Target Recognition on
FPGA
- arxiv url: http://arxiv.org/abs/2301.01454v1
- Date: Wed, 4 Jan 2023 05:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 16:18:38.771966
- Title: Accurate, Low-latency, Efficient SAR Automatic Target Recognition on
FPGA
- Title(参考訳): FPGAにおける高精度・低レイテンシ・効率的なSAR自動目標認識
- Authors: Bingyi Zhang, Rajgopal Kannan, Viktor Prasanna, Carl Busart
- Abstract要約: 合成開口レーダ(SAR)自動目標認識(ATR)はリモートセンシング画像認識の鍵となる技術である。
SAR ATRのための最先端の畳み込みニューラルネットワーク(CNN)は、エンハンハイ計算コストとエンハンラージメモリフットプリントに悩まされている。
本稿では,これらの問題に対処するため,FPGA 上でモデルアーキテクチャを包括的に設計する手法を提案する。
- 参考スコア(独自算出の注目度): 3.251765107970636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthetic aperture radar (SAR) automatic target recognition (ATR) is the key
technique for remote-sensing image recognition. The state-of-the-art
convolutional neural networks (CNNs) for SAR ATR suffer from \emph{high
computation cost} and \emph{large memory footprint}, making them unsuitable to
be deployed on resource-limited platforms, such as small/micro satellites. In
this paper, we propose a comprehensive GNN-based model-architecture {co-design}
on FPGA to address the above issues. \emph{Model design}: we design a novel
graph neural network (GNN) for SAR ATR. The proposed GNN model incorporates
GraphSAGE layer operators and attention mechanism, achieving comparable
accuracy as the state-of-the-art work with near $1/100$ computation cost. Then,
we propose a pruning approach including weight pruning and input pruning. While
weight pruning through lasso regression reduces most parameters without
accuracy drop, input pruning eliminates most input pixels with negligible
accuracy drop. \emph{Architecture design}: to fully unleash the computation
parallelism within the proposed model, we develop a novel unified hardware
architecture that can execute various computation kernels (feature aggregation,
feature transformation, graph pooling). The proposed hardware design adopts the
Scatter-Gather paradigm to efficiently handle the irregular computation
{patterns} of various computation kernels. We deploy the proposed design on an
embedded FPGA (AMD Xilinx ZCU104) and evaluate the performance using MSTAR
dataset. Compared with the state-of-the-art CNNs, the proposed GNN achieves
comparable accuracy with $1/3258$ computation cost and $1/83$ model size.
Compared with the state-of-the-art CPU/GPU, our FPGA accelerator achieves
$14.8\times$/$2.5\times$ speedup (latency) and is $62\times$/$39\times$ more
energy efficient.
- Abstract(参考訳): 合成開口レーダ(SAR)自動目標認識(ATR)はリモートセンシング画像認識の鍵となる技術である。
SAR ATRの最先端の畳み込みニューラルネットワーク(CNN)は、小さな/マイクロ衛星のようなリソース制限されたプラットフォームにデプロイするのに適さないため、 \emph{high compute cost} と \emph{large memory footprint} に苦しむ。
本稿では, FPGA 上のモデルアーキテクチャを包括的に構築し, 上記の問題に対処する手法を提案する。
\emph{Model design}: SAR ATRのための新しいグラフニューラルネットワーク(GNN)を設計する。
提案したGNNモデルでは,GraphSAGE層演算子とアテンション機構が組み込まれ,計算コストが約1/100ドルの最先端処理と同等の精度を実現している。
次に,重みの刈り込みと入力の刈り込みを含む刈り込み手法を提案する。
ラッソ回帰によるウェイトプルーニングは精度低下なしにほとんどのパラメータを減少させるが、入力プルーニングは無視できる精度低下を伴うほとんどの入力ピクセルを除去する。
\emph{Architecture design}: 提案したモデル内で計算並列性を完全に解き放つために, 様々な計算カーネル(機能集約, 特徴変換, グラフプーリング)を実行できる新しい統一ハードウェアアーキテクチャを開発する。
提案するハードウェア設計では、Scatter-Gatherパラダイムを採用し、様々な計算カーネルの不規則な計算パターンを効率的に処理する。
提案手法を組み込みFPGA(AMD Xilinx ZCU104)上に展開し,MSTARデータセットを用いて性能評価を行う。
最先端のCNNと比較して、提案したGNNは計算コストが1/3258ドル、モデルサイズが1/83ドルである。
最先端のCPU/GPUと比較して、FPGAアクセラレータは14.8\times$/2.5\times$スピードアップ(レイテンシ)を達成し、62\times$/39\times$よりエネルギー効率が高い。
関連論文リスト
- ApproxDARTS: Differentiable Neural Architecture Search with Approximate Multipliers [0.24578723416255746]
本稿では、DARTSと呼ばれる一般的な微分可能なニューラルアーキテクチャ探索手法を応用し、近似乗算器を活用可能なニューラルアーキテクチャ探索(NAS)手法であるApproxDARTSを提案する。
ApproxDARTSは10ドル未満のGPU時間で完全なアーキテクチャ検索を実行でき、畳み込み層に近似乗算器を含む競合畳み込みニューラルネットワーク(CNN)を生成する。
論文 参考訳(メタデータ) (2024-04-08T09:54:57Z) - T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Graph Neural Network for Accurate and Low-complexity SAR ATR [2.9766397696234996]
高精度かつ低レイテンシなSAR ATRを実現するために,グラフニューラルネットワーク(GNN)モデルを提案する。
提案したGNNモデルは計算複雑性が低く,高い精度を実現する。
現状のCNNと比較して、提案したGNNモデルは、計算コストが1/3000、モデルサイズが1/80である。
論文 参考訳(メタデータ) (2023-05-11T20:17:41Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - VersaGNN: a Versatile accelerator for Graph neural networks [81.1667080640009]
我々は,超効率的なサイストリックアレイベースの多用途ハードウェアアクセラレータである textitVersaGNN を提案する。
textitVersaGNNは平均3712$times$ speedup with 1301.25$times$ energy reduction on CPU、35.4$times$ speedup with 17.66$times$ energy reduction on GPUを達成している。
論文 参考訳(メタデータ) (2021-05-04T04:10:48Z) - HAO: Hardware-aware neural Architecture Optimization for Efficient
Inference [25.265181492143107]
ニューラルネットワーク探索アルゴリズムの設計空間を縮小するための整数プログラミングアルゴリズムを開発する。
私たちのアルゴリズムは、フレームレート50でImageNetの72.5%のトップ-1精度を達成し、MnasNetよりも60%高速で、比較精度でFBNetよりも135%高速です。
論文 参考訳(メタデータ) (2021-04-26T17:59:29Z) - NullaNet Tiny: Ultra-low-latency DNN Inference Through Fixed-function
Combinational Logic [4.119948826527649]
フィールドプログラマブルゲートアレイ(FPGA)ベースのアクセラレータは、グラフィックス処理ユニット/中央処理ユニットベースのプラットフォームを置き換える深刻な競争相手として注目を集めています。
本稿では,資源とエネルギー効率,超低遅延FPGAベースニューラルネットワークアクセラレータ構築のためのフレームワークであるNullaNet Tinyを提案する。
論文 参考訳(メタデータ) (2021-04-07T00:16:39Z) - ExPAN(N)D: Exploring Posits for Efficient Artificial Neural Network
Design in FPGA-based Systems [4.2612881037640085]
本稿では,ANNに対するポジット数表現方式の有効性と不動点演算の実装効率を解析し,比較する。
本稿では,ANNのための高性能かつ省エネなハードウェア実装を実現するための,新しい固定点変換器Posit to Fix-pointを提案する。
論文 参考訳(メタデータ) (2020-10-24T11:02:25Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。