論文の概要: Efficient Single Object Detection on Image Patches with Early Exit
Enhanced High-Precision CNNs
- arxiv url: http://arxiv.org/abs/2309.03530v1
- Date: Thu, 7 Sep 2023 07:23:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 13:56:45.431546
- Title: Efficient Single Object Detection on Image Patches with Early Exit
Enhanced High-Precision CNNs
- Title(参考訳): 高速高精度cnnを用いた画像パッチの効率的な単一物体検出
- Authors: Arne Moos
- Abstract要約: 本稿では,RoboCup Standard Platform Leagueの文脈における移動ロボットを用いた物体検出手法を提案する。
この課題は、様々な照明条件と高速な動きによって引き起こされるぼやけた画像において、ダイナミックな物体を検出することである。
この課題に対処するために,計算に制約のあるロボットプラットフォーム用に設計された畳み込みニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper proposes a novel approach for detecting objects using mobile
robots in the context of the RoboCup Standard Platform League, with a primary
focus on detecting the ball. The challenge lies in detecting a dynamic object
in varying lighting conditions and blurred images caused by fast movements. To
address this challenge, the paper presents a convolutional neural network
architecture designed specifically for computationally constrained robotic
platforms. The proposed CNN is trained to achieve high precision classification
of single objects in image patches and to determine their precise spatial
positions. The paper further integrates Early Exits into the existing
high-precision CNN architecture to reduce the computational cost of easily
rejectable cases in the background class. The training process involves a
composite loss function based on confidence and positional losses with dynamic
weighting and data augmentation. The proposed approach achieves a precision of
100% on the validation dataset and a recall of almost 87%, while maintaining an
execution time of around 170 $\mu$s per hypotheses. By combining the proposed
approach with an Early Exit, a runtime optimization of more than 28%, on
average, can be achieved compared to the original CNN. Overall, this paper
provides an efficient solution for an enhanced detection of objects, especially
the ball, in computationally constrained robotic platforms.
- Abstract(参考訳): 本稿では,robocup standard platform leagueのコンテキストにおける移動ロボットを用いた物体検出手法を提案する。
課題は、速い動きによって生じる様々な照明条件とぼやけた画像で動的物体を検出することである。
この課題に対処するために,計算に制約のあるロボットプラットフォーム用に設計された畳み込みニューラルネットワークアーキテクチャを提案する。
提案するcnnは、画像パッチにおける単一物体の高精度な分類と、それらの正確な空間的位置の決定を行うように訓練されている。
本稿では,既存の高精度CNNアーキテクチャにEarly Exitsを組み込んで,バックグラウンドクラスで容易に拒否可能なケースの計算コストを削減する。
トレーニングプロセスは、動的重み付けとデータ拡張による信頼性と位置損失に基づく複合損失関数を含む。
提案手法では,検証データセット上で100%の精度を実現し,約87%のリコールを実現した。
提案手法とEarly Exitを組み合わせることで,従来のCNNと比較して平均28%以上のランタイム最適化を実現することができる。
本稿では,計算制約のあるロボットプラットフォームにおいて,物体,特にボールの検出を効率化するための効率的なソリューションを提供する。
関連論文リスト
- Scale-Invariant Object Detection by Adaptive Convolution with Unified Global-Local Context [3.061662434597098]
本稿では,効率的なDetモデルに基づくSAC-Net(Switchable Atrous Convolutional Network)を用いたオブジェクト検出モデルを提案する。
提案したSAC-Netは,マルチスケールオブジェクト検出タスクの性能向上を実現するために,低レベル機能と高レベル機能の両方の利点をカプセル化している。
ベンチマークデータセットを用いた実験により,提案したSAC-Netは,精度の点で最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-17T10:08:37Z) - A Fresh Take on Stale Embeddings: Improving Dense Retriever Training with Corrector Networks [81.2624272756733]
密集検索では、ディープエンコーダは入力とターゲットの両方に埋め込みを提供する。
我々は、古いキャッシュされたターゲット埋め込みを調整できる小さなパラメトリック補正ネットワークを訓練する。
私たちのアプローチは、トレーニング中にターゲット埋め込み更新が行われなくても、最先端の結果と一致します。
論文 参考訳(メタデータ) (2024-09-03T13:29:13Z) - EdgeYOLO: An Edge-Real-Time Object Detector [69.41688769991482]
本稿では, 最先端のYOLOフレームワークをベースとした, 効率的で低複雑さかつアンカーフリーな物体検出器を提案する。
我々は,訓練中の過剰適合を効果的に抑制する拡張データ拡張法を開発し,小型物体の検出精度を向上させるためにハイブリッドランダム損失関数を設計する。
私たちのベースラインモデルは、MS 2017データセットで50.6%のAP50:95と69.8%のAP50、VisDrone 2019-DETデータセットで26.4%のAP50と44.8%のAP50に達し、エッジコンピューティングデバイスNvidia上でリアルタイム要求(FPS>=30)を満たす。
論文 参考訳(メタデータ) (2023-02-15T06:05:14Z) - Feature Compression for Rate Constrained Object Detection on the Edge [20.18227104333772]
この問題を解決するための新たなアプローチは、ニューラルネットワークの計算をエッジサーバのコンピューティングリソースにオフロードすることだ。
本研究では、YOLOオブジェクト検出モデルの計算の一部をオフロードする「分割計算」システムについて検討する。
我々は、速度制約下でのオブジェクト検出精度を最適化するために、YOLOモデルとともに特徴圧縮および非圧縮モジュールを訓練する。
論文 参考訳(メタデータ) (2022-04-15T03:39:30Z) - You Better Look Twice: a new perspective for designing accurate
detectors with reduced computations [56.34005280792013]
BLT-netは、新しい低計算の2段階オブジェクト検出アーキテクチャである。
非常にエレガントな第1ステージを使用して、オブジェクトをバックグラウンドから分離することで、計算を削減します。
結果のイメージ提案は、高度に正確なモデルによって第2段階で処理される。
論文 参考訳(メタデータ) (2021-07-21T12:39:51Z) - Lightweight Convolutional Neural Network with Gaussian-based Grasping
Representation for Robotic Grasping Detection [4.683939045230724]
現在の物体検出器は、高い精度と高速な推論速度のバランスを取るのが難しい。
ロボットつかみポーズ推定を行うための効率的かつ堅牢な完全畳み込みニューラルネットワークモデルを提案する。
ネットワークは、他の優れたアルゴリズムよりも桁違いに小さい順序です。
論文 参考訳(メタデータ) (2021-01-25T16:36:53Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - AmphibianDetector: adaptive computation for moving objects detection [0.913755431537592]
本稿では,偽陽性検出の回数を減らすためのオブジェクト検出手法を提案する。
提案手法は、すでにオブジェクト検出タスクのために訓練されているCNNの修正である。
提案手法の有効性をオープンデータセット"CDNet2014 pedestrian"で実証した。
論文 参考訳(メタデータ) (2020-11-15T12:37:44Z) - Real-time CNN-based Segmentation Architecture for Ball Detection in a
Single View Setup [23.17839603118139]
本稿では,ボールがプレーヤと頻繁に対話する困難な場合において,球を単一視点から検出する作業について考察する。
本稿では,効率的なCNNアーキテクチャによって解決されたセグメンテーションタスクとして問題を定式化し,新しいアプローチを提案する。
我々の推論モデルは、時間的解析によって引き起こされる遅延を伴わずにリアルタイムに実行できる。
論文 参考訳(メタデータ) (2020-07-23T09:31:32Z) - Disp R-CNN: Stereo 3D Object Detection via Shape Prior Guided Instance
Disparity Estimation [51.17232267143098]
ステレオ画像から3次元物体を検出するための新しいシステムDisp R-CNNを提案する。
我々は、LiDAR点雲を必要とせずに、統計的形状モデルを用いて、密度の異なる擬似地下構造を生成する。
KITTIデータセットの実験によると、LiDARの基盤構造がトレーニング時に利用できない場合でも、Disp R-CNNは競争性能を達成し、平均精度で従来の最先端手法を20%上回っている。
論文 参考訳(メタデータ) (2020-04-07T17:48:45Z) - Depthwise Non-local Module for Fast Salient Object Detection Using a
Single Thread [136.2224792151324]
本稿では,高速な物体検出のための新しいディープラーニングアルゴリズムを提案する。
提案アルゴリズムは,1つのCPUスレッドと同時に,競合精度と高い推論効率を実現する。
論文 参考訳(メタデータ) (2020-01-22T15:23:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。