論文の概要: YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs
- arxiv url: http://arxiv.org/abs/2110.13713v1
- Date: Tue, 26 Oct 2021 14:02:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 19:48:28.027708
- Title: YOLO-ReT: Towards High Accuracy Real-time Object Detection on Edge GPUs
- Title(参考訳): YOLO-ReT:エッジGPUにおける高精度リアルタイムオブジェクト検出を目指して
- Authors: Prakhar Ganesh, Yao Chen, Yin Yang, Deming Chen, Marianne Winslett
- Abstract要約: ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、通常、そのようなモデルを著しく圧縮する必要がある。
本稿では,マルチスケール機能インタラクションのためのエッジGPUフレンドリなモジュールを提案する。
また,様々なタスク間の翻訳情報の流れの変化にインスパイアされた,新たな学習バックボーンの導入を提案する。
- 参考スコア(独自算出の注目度): 14.85882314822983
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Performance of object detection models has been growing rapidly on two major
fronts, model accuracy and efficiency. However, in order to map deep neural
network (DNN) based object detection models to edge devices, one typically
needs to compress such models significantly, thus compromising the model
accuracy. In this paper, we propose a novel edge GPU friendly module for
multi-scale feature interaction by exploiting missing combinatorial connections
between various feature scales in existing state-of-the-art methods.
Additionally, we propose a novel transfer learning backbone adoption inspired
by the changing translational information flow across various tasks, designed
to complement our feature interaction module and together improve both accuracy
as well as execution speed on various edge GPU devices available in the market.
For instance, YOLO-ReT with MobileNetV2x0.75 backbone runs real-time on Jetson
Nano, and achieves 68.75 mAP on Pascal VOC and 34.91 mAP on COCO, beating its
peers by 3.05 mAP and 0.91 mAP respectively, while executing faster by 3.05
FPS. Furthermore, introducing our multi-scale feature interaction module in
YOLOv4-tiny and YOLOv4-tiny (3l) improves their performance to 41.5 and 48.1
mAP respectively on COCO, outperforming the original versions by 1.3 and 0.9
mAP.
- Abstract(参考訳): オブジェクト検出モデルの性能は、モデル精度と効率の2つの主要な面で急速に向上している。
しかし、ディープニューラルネットワーク(DNN)ベースのオブジェクト検出モデルをエッジデバイスにマップするには、そのようなモデルを大幅に圧縮する必要があるため、モデルの精度が向上する。
本稿では,既存手法における様々な特徴尺度間の組合せ接続の欠如を利用して,マルチスケール機能インタラクションのためのエッジgpuフレンドリなモジュールを提案する。
さらに,様々なタスクにまたがる翻訳情報の流れの変化に触発されて,機能インタラクションモジュールを補完し,市場で利用可能なさまざまなエッジgpuデバイス上での精度と実行速度を両立させる,新しいトランスファーラーニングバックボーンを提案する。
例えば、MobileNetV2x0.75バックボーンのYOLO-ReTはJetson Nanoでリアルタイムに動作し、Pascal VOCで68.75 mAP、COCOで34.91 mAPを達成し、それぞれ3.05 mAPと0.91 mAPを上回り、高速に実行している。
さらに, YOLOv4-tiny と YOLOv4-tiny (3l) のマルチスケール機能相互作用モジュールの導入により, COCO 上での 41.5 と 48.1 mAP のパフォーマンスが向上し, オリジナルバージョンよりも 1.3 と 0.9 mAP が向上した。
関連論文リスト
- LeYOLO, New Scalable and Efficient CNN Architecture for Object Detection [0.0]
FLOPに基づく効率的な物体検出のためのニューラルネットワークアーキテクチャの設計選択に着目する。
そこで本研究では,YOLOモデルの有効性を高めるために,いくつかの最適化手法を提案する。
本稿では、オブジェクト検出のための新しいスケーリングパラダイムと、LeYOLOと呼ばれるYOLO中心のモデルに寄与する。
論文 参考訳(メタデータ) (2024-06-20T12:08:24Z) - YOLO-TLA: An Efficient and Lightweight Small Object Detection Model based on YOLOv5 [19.388112026410045]
YOLO-TLAは、YOLOv5上に構築された高度な物体検出モデルである。
まず、ネックネットワークピラミッドアーキテクチャにおいて、小さなオブジェクトに対する検出層を新たに導入する。
このモジュールはスライディングウィンドウの特徴抽出を使い、計算要求とパラメータ数の両方を効果的に最小化する。
論文 参考訳(メタデータ) (2024-02-22T05:55:17Z) - YOLO-MS: Rethinking Multi-Scale Representation Learning for Real-time
Object Detection [80.11152626362109]
YOLO-MSと呼ばれる効率的かつ高性能な物体検出器を提供する。
私たちは、他の大規模なデータセットに頼ることなく、MS COCOデータセット上でYOLO-MSをスクラッチからトレーニングします。
私たちの仕事は、他のYOLOモデルのプラグイン・アンド・プレイ・モジュールとしても使えます。
論文 参考訳(メタデータ) (2023-08-10T10:12:27Z) - Exploring Object-Centric Temporal Modeling for Efficient Multi-View 3D
Object Detection [20.161887223481994]
マルチビュー3Dオブジェクト検出のための長周期モデリングフレームワークStreamPETRを提案する。
StreamPETRは、単一フレームのベースラインと比較して、無視可能なコストでのみ、大幅なパフォーマンス向上を実現している。
軽量版は45.0%のmAPと31.7のFPSを実現し、2.3%のmAPと1.8倍の高速FPSを達成している。
論文 参考訳(メタデータ) (2023-03-21T15:19:20Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - CNN-transformer mixed model for object detection [3.5897534810405403]
本稿では,トランスを用いた畳み込みモジュールを提案する。
CNNが抽出した詳細特徴と変換器が抽出したグローバル特徴とを融合させることにより、モデルの認識精度を向上させることを目的とする。
Pascal VOCデータセットでの100ラウンドのトレーニングの後、結果の精度は81%に達し、resnet101[5]をバックボーンとして使用したRCNN[4]よりも4.6向上した。
論文 参考訳(メタデータ) (2022-12-13T16:35:35Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - A lightweight and accurate YOLO-like network for small target detection
in Aerial Imagery [94.78943497436492]
小型ターゲット検出のためのシンプルで高速で効率的なネットワークであるYOLO-Sを提案する。
YOLO-SはDarknet20をベースとした小さな特徴抽出器と、バイパスと連結の両方を通じて接続をスキップする。
YOLO-Sはパラメータサイズが87%減少し、約半分のFLOPがYOLOv3となり、低消費電力の産業用アプリケーションに実用化された。
論文 参考訳(メタデータ) (2022-04-05T16:29:49Z) - PP-PicoDet: A Better Real-Time Object Detector on Mobile Devices [13.62426382827205]
実時間物体検出器のPP-PicoDetファミリは,モバイルデバイスの物体検出において優れた性能を発揮する。
モデルは、他の一般的なモデルと比較して、精度とレイテンシのトレードオフを改善する。
論文 参考訳(メタデータ) (2021-11-01T12:53:17Z) - RT3D: Achieving Real-Time Execution of 3D Convolutional Neural Networks
on Mobile Devices [57.877112704841366]
本稿では3次元CNNのためのモデル圧縮およびモバイルアクセラレーションフレームワークRT3Dを提案する。
3D CNNのリアルタイム実行は、市販のモバイル上で初めて実現された。
論文 参考訳(メタデータ) (2020-07-20T02:05:32Z) - MobileDets: Searching for Object Detection Architectures for Mobile
Accelerators [61.30355783955777]
逆ボトルネック層は、モバイルデバイス上の最先端のオブジェクト検出モデルにおいて、主要なビルディングブロックとなっている。
通常の畳み込みは、アクセラレーターにおけるオブジェクト検出の遅延精度トレードオフを高める強力なコンポーネントである。
我々は、モバイルアクセラレーター全体で最先端の成果を得られるオブジェクト検出モデル、MobileDetsのファミリーを得る。
論文 参考訳(メタデータ) (2020-04-30T00:21:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。