論文の概要: Slim-neck by GSConv: A better design paradigm of detector architectures
for autonomous vehicles
- arxiv url: http://arxiv.org/abs/2206.02424v1
- Date: Mon, 6 Jun 2022 08:34:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 16:12:45.332029
- Title: Slim-neck by GSConv: A better design paradigm of detector architectures
for autonomous vehicles
- Title(参考訳): Slim-neck by GSConv: 自動運転車用検出器アーキテクチャのより良い設計パラダイム
- Authors: Hulin Li, Jun Li, Hanbing Wei, Zheng Liu, Zhenfei Zhan and Qiliang Ren
- Abstract要約: 本稿では,モデルの軽量化と精度向上のための新しい手法GSConvを提案する。
我々は、検出器の計算コスト効率を高めるために、スリムネックという設計パラダイムを提供する。
- 参考スコア(独自算出の注目度): 6.30864225692394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object detection is a difficult downstream task in computer vision. For the
on-board edge computing platforms, a giant model is difficult to achieve the
real-time detection requirement. And, a lightweight model built from a large
number of the depth-wise separable convolutional layers cannot achieve the
sufficient accuracy. We introduce a new method, GSConv, to lighten the model
but maintain the accuracy. The GSConv balances the model's accuracy and speed
better. And, we provide a design paradigm, slim-neck, to achieve a higher
computational cost-effectiveness of the detectors. In experiments, our method
obtains state-of-the-art results (e.g. 70.9% mAP0.5 for the SO-DA10M at a speed
of ~100FPS on a Tesla T4) compared with the original networks. Code will be
open source.
- Abstract(参考訳): 物体検出はコンピュータビジョンにおいて難しい下流課題である。
オンボードエッジコンピューティングプラットフォームでは、リアルタイム検出要求を達成するのが巨大なモデルである。
また,多数の奥行き分離可能な畳み込み層から構築した軽量モデルでは,十分な精度が得られない。
本稿では,モデルの軽量化と精度向上のための新しい手法GSConvを提案する。
GSConvはモデルの精度と速度のバランスが良くなる。
また,より高い計算コスト効率を達成するための設計パラダイムであるslim-neckを提供する。
実験では, 従来のネットワークと比較して, 現状の結果(例えば, SO-DA10Mの70.9% mAP0.5, テスラT4の約100FPS)を得た。
コードはオープンソースになる。
関連論文リスト
- Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Optimizing Anchor-based Detectors for Autonomous Driving Scenes [22.946814647030667]
本稿では、自律走行シーンにおける一般的なアンカーベース検出器のモデル改善と推定時間最適化について要約する。
高性能RCNN-RSおよびRetinaNet-RS検出フレームワークに基づいて,群衆シーンの小さな物体をよりよく検出するために,検出器に適応するための一連のフレームワークの改善について検討した。
論文 参考訳(メタデータ) (2022-08-11T22:44:59Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - LCS: Learning Compressible Subspaces for Adaptive Network Compression at
Inference Time [57.52251547365967]
本稿では,ニューラルネットワークの「圧縮可能な部分空間」を訓練する手法を提案する。
構造的・非構造的空間に対する推定時間における微粒な精度・効率のトレードオフを任意に達成するための結果を示す。
我々のアルゴリズムは、可変ビット幅での量子化にまで拡張し、個別に訓練されたネットワークと同等の精度を実現する。
論文 参考訳(メタデータ) (2021-10-08T17:03:34Z) - The Devil Is in the Details: An Efficient Convolutional Neural Network
for Transport Mode Detection [3.008051369744002]
トランスポートモード検出は、マルチモーダル信号が与えられたユーザのトランスポートモードを推測できるアルゴリズムを設計することを目的とした分類問題である。
小型で最適化されたモデルが、現在のディープモデルと同様に動作可能であることを示す。
論文 参考訳(メタデータ) (2021-09-16T08:05:47Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - FRDet: Balanced and Lightweight Object Detector based on Fire-Residual
Modules for Embedded Processor of Autonomous Driving [0.0]
本稿では, 精度, モデルサイズ, リアルタイム処理の制約をすべて満たすために, バランスのとれた軽量一段物体検出器を提案する。
我々のネットワークは、YOLOv3の精度を達成または超えながら、モデルの圧縮を最大化することを目的としている。
論文 参考訳(メタデータ) (2020-11-16T16:15:43Z) - FastSal: a Computationally Efficient Network for Visual Saliency
Prediction [7.742198347952173]
我々は、MobileNetV2が視覚的サリエンシモデルに優れたバックボーンを作り、複雑なデコーダを使わずに有効であることを示す。
また,DeepGaze IIのような計算コストの高いモデルからの知識伝達は,ラベルのないデータセットを擬似ラベリングすることで実現できることを示す。
論文 参考訳(メタデータ) (2020-08-25T16:32:33Z) - Highly Efficient Salient Object Detection with 100K Parameters [137.74898755102387]
そこで我々は,段階内および複数ステージのマルチスケール機能を効率的に活用するために,フレキシブルな畳み込みモジュールであるOctoConv(gOctConv)を提案する。
我々は、非常に軽量なモデル、すなわちCSNetを構築し、一般的なオブジェクト検出ベンチマークで、約0.2%(100k)の大規模モデルで同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-12T07:00:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。