論文の概要: Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge
- arxiv url: http://arxiv.org/abs/2304.11196v1
- Date: Fri, 21 Apr 2023 18:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 19:53:33.920269
- Title: Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge
- Title(参考訳): fast grabnext: エッジ上のロボット把持のためのコンピュータビジョンタスクにおけるマルチタスク学習のための高速セルフアテンションニューラルネットワークアーキテクチャ
- Authors: Alexander Wong, Yifan Wu, Saad Abbasi, Saeejith Nair, Yuhao Chen,
Mohammad Javad Shafiee
- Abstract要約: アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
- 参考スコア(独自算出の注目度): 80.88063189896718
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-task learning has shown considerable promise for improving the
performance of deep learning-driven vision systems for the purpose of robotic
grasping. However, high architectural and computational complexity can result
in poor suitability for deployment on embedded devices that are typically
leveraged in robotic arms for real-world manufacturing and warehouse
environments. As such, the design of highly efficient multi-task deep neural
network architectures tailored for computer vision tasks for robotic grasping
on the edge is highly desired for widespread adoption in manufacturing
environments. Motivated by this, we propose Fast GraspNeXt, a fast
self-attention neural network architecture tailored for embedded multi-task
learning in computer vision tasks for robotic grasping. To build Fast
GraspNeXt, we leverage a generative network architecture search strategy with a
set of architectural constraints customized to achieve a strong balance between
multi-task learning performance and embedded inference efficiency. Experimental
results on the MetaGraspNet benchmark dataset show that the Fast GraspNeXt
network design achieves the highest performance (average precision (AP),
accuracy, and mean squared error (MSE)) across multiple computer vision tasks
when compared to other efficient multi-task network architecture designs, while
having only 17.8M parameters (about >5x smaller), 259 GFLOPs (as much as >5x
lower) and as much as >3.15x faster on a NVIDIA Jetson TX2 embedded processor.
- Abstract(参考訳): マルチタスク学習は,ロボット把持を目的とした深層学習駆動視覚システムの性能向上に大いに期待されている。
しかし、高いアーキテクチャと計算の複雑さは、現実の製造業や倉庫環境のためにロボットアームで通常活用される組み込みデバイスへの展開に適さない結果をもたらす。
このように、エッジ上でロボットをつかむコンピュータビジョンタスクに適した高効率なマルチタスクディープニューラルネットワークアーキテクチャの設計が、製造環境において広く採用されることが望まれている。
ロボットグルーピングのためのコンピュータビジョンタスクに組み込んだマルチタスク学習に適した,高速自己認識型ニューラルネットワークアーキテクチャであるFast GraspNeXtを提案する。
Fast GraspNeXtを構築するために,マルチタスク学習性能と組込み推論効率の強いバランスを実現するために,アーキテクチャ制約をカスタマイズした生成ネットワークアーキテクチャ検索戦略を利用する。
MetaGraspNetベンチマークデータセットでの実験結果から、高速なGraspNeXtネットワーク設計は、NVIDIA Jetson TX2組み込みプロセッサで17.8Mパラメータ(約5倍以下)、259 GFLOP(最大5倍以下)、最大3.15倍高速であるのに対して、他の効率的なマルチタスクネットワーク設計と比較して、複数のコンピュータビジョンタスクにおける最高性能(平均精度、精度、平均二乗誤差(MSE))を達成することが示された。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - DONNAv2 -- Lightweight Neural Architecture Search for Vision tasks [6.628409795264665]
計算効率の良いニューラルアーキテクチャ蒸留 - DONNAv2 のための次世代ニューラルアーキテクチャ設計について述べる。
DONNAv2は、より大きなデータセットに対して、DONNAの計算コストを10倍削減する。
NASサーチスペースの品質を向上させるため、DONNAv2はブロック知識蒸留フィルタを利用して推論コストの高いブロックを除去する。
論文 参考訳(メタデータ) (2023-09-26T04:48:50Z) - Edge-MoE: Memory-Efficient Multi-Task Vision Transformer Architecture
with Task-level Sparsity via Mixture-of-Experts [60.1586169973792]
M$3$ViTは、Mix-of-experts (MoE)を導入した最新のマルチタスクViTモデルである。
MoEは精度の向上と80%以上の削減計算を実現しているが、FPGAに効率的なデプロイを行う上での課題は残されている。
Edge-MoEと呼ばれる私たちの研究は、アーキテクチャの革新の集合を伴って、マルチタスクのViTのための最初のエンドツーエンドFPGAアクセラレータを導入するという課題を解決します。
論文 参考訳(メタデータ) (2023-05-30T02:24:03Z) - Design of Convolutional Extreme Learning Machines for Vision-Based
Navigation Around Small Bodies [0.0]
畳み込みニューラルネットワークのようなディープラーニングアーキテクチャは、画像処理タスクにおけるコンピュータビジョンの標準である。
しかし、その正確さは、しばしば、長く計算的に高価なトレーニングのコストがかかる。
畳み込み極端学習マシンと呼ばれる別の手法は、トレーニング時間の劇的な減少と同等に機能する可能性を示している。
論文 参考訳(メタデータ) (2022-10-28T16:24:21Z) - Faster Attention Is What You Need: A Fast Self-Attention Neural Network
Backbone Architecture for the Edge via Double-Condensing Attention Condensers [71.40595908386477]
本稿では,2重対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向対向
結果のバックボーン(AttendNeXtと呼ぶ)は、組み込みARMプロセッサ上で大幅に高い推論スループットを実現する。
これらの有望な結果は、さまざまな効率的なアーキテクチャ設計と自己アテンション機構の探索が、TinyMLアプリケーションのための興味深い新しいビルディングブロックにつながることを実証している。
論文 参考訳(メタデータ) (2022-08-15T02:47:33Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - ISyNet: Convolutional Neural Networks design for AI accelerator [0.0]
現在の最先端アーキテクチャは、モデル複雑さを考慮して、ニューラルアーキテクチャサーチ(NAS)によって発見されている。
本稿では,ニューラルネットワーク探索空間のハードウェア効率の指標として,行列効率測定(MEM),ハードウェア効率の高い演算からなる探索空間,レイテンシを考慮したスケーリング手法を提案する。
我々は、ImageNet上のNPUデバイスの設計アーキテクチャと、下流の分類および検出タスクの一般化能力の利点を示す。
論文 参考訳(メタデータ) (2021-09-04T20:57:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。