論文の概要: An Embedded Monocular Vision Approach for Ground-Aware Objects Detection
and Position Estimation
- arxiv url: http://arxiv.org/abs/2207.09851v1
- Date: Wed, 20 Jul 2022 12:35:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 14:08:54.182795
- Title: An Embedded Monocular Vision Approach for Ground-Aware Objects Detection
and Position Estimation
- Title(参考訳): 地盤認識物体の検出と位置推定のための埋め込み単眼視覚アプローチ
- Authors: Jo\~ao G. Melo and Edna Barros
- Abstract要約: RoboCup Small Size League (SSL)では、組込みセンシング情報のみを使用してSSLフィールド内で基本的なサッカータスクを実行するソリューションを提案することが推奨されている。
本研究は,物体の検出とサッカー場内における相対位置の推定を行うための,埋め込み単眼視覚アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the RoboCup Small Size League (SSL), teams are encouraged to propose
solutions for executing basic soccer tasks inside the SSL field using only
embedded sensing information. Thus, this work proposes an embedded monocular
vision approach for detecting objects and estimating relative positions inside
the soccer field. Prior knowledge from the environment is exploited by assuming
objects lay on the ground, and the onboard camera has its position fixed on the
robot. We implemented the proposed method on an NVIDIA Jetson Nano and employed
SSD MobileNet v2 for 2D Object Detection with TensorRT optimization, detecting
balls, robots, and goals with distances up to 3.5 meters. Ball localization
evaluation shows that the proposed solution overcomes the currently used SSL
vision system for positions closer than 1 meter to the onboard camera with a
Root Mean Square Error of 14.37 millimeters. In addition, the proposed method
achieves real-time performance with an average processing speed of 30 frames
per second.
- Abstract(参考訳): RoboCup Small Size League (SSL)では、チームは組み込みセンシング情報のみを使用してSSLフィールド内で基本的なサッカータスクを実行するソリューションを提案することが推奨されている。
そこで本研究では,物体を検知し,サッカー場内の相対位置を推定するための埋め込み単眼視覚手法を提案する。
環境からの事前知識は、物体が地面に置かれていると仮定して活用され、オンボードカメラはその位置をロボットに固定する。
提案手法をNVIDIA Jetson Nanoに実装し,TensorRT最適化による2次元物体検出,ボール,ロボット,目標を最大3.5mの距離で検出するSSD MobileNet v2を適用した。
球の局在評価は、現在使われているsslビジョンシステムより1メートル近い位置を14.37ミリの根平均二乗誤差で上回ることを示している。
また,提案手法は,平均処理速度が30フレーム/秒のリアルタイム性能を実現する。
関連論文リスト
- DECADE: Towards Designing Efficient-yet-Accurate Distance Estimation Modules for Collision Avoidance in Mobile Advanced Driver Assistance Systems [5.383130566626935]
本稿では,距離推定モデルであるDECADEについて述べる。
これらのモジュールを任意の検出器にアタッチして物体検出を高速な距離推定で拡張できることを実証する。
論文 参考訳(メタデータ) (2024-10-25T06:40:42Z) - SeSame: Simple, Easy 3D Object Detection with Point-Wise Semantics [0.7373617024876725]
自律運転では、3Dオブジェクト検出は、経路計画や動き推定を含む下流タスクに対してより正確な情報を提供する。
本稿では,既存のLiDARのみに基づく3Dオブジェクト検出における意味情報の強化を目的としたSeSameを提案する。
KITTIオブジェクト検出ベンチマークにおいて,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2024-03-11T08:17:56Z) - Objects as Spatio-Temporal 2.5D points [5.588892124219713]
本研究では,ネットワークの単一フィードフォワードパスにおける2次元物体検出シーンの深度予測を協調学習することにより,物体の3次元位置を推定する弱い教師付き手法を提案する。
提案手法は,単点型オブジェクト検出装置を拡張し,各オブジェクトを時間的にBEVとしてモデル化し,クエリ時に3DやBEVアノテーションやLiDARデータを必要としない新しいオブジェクト表現を提案する。
論文 参考訳(メタデータ) (2022-12-06T05:14:30Z) - Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search [45.20331644857981]
本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
論文 参考訳(メタデータ) (2021-06-28T18:59:20Z) - Analysis of voxel-based 3D object detection methods efficiency for
real-time embedded systems [93.73198973454944]
本稿では, ボクセルをベースとした2つの3次元物体検出手法について述べる。
実験の結果,これらの手法は入力点雲が遠距離にあるため,遠距離の小さな物体を検出できないことが確認できた。
この結果から,既存手法の計算のかなりの部分は,検出に寄与しないシーンの位置に着目していることが示唆された。
論文 参考訳(メタデータ) (2021-05-21T12:40:59Z) - EagerMOT: 3D Multi-Object Tracking via Sensor Fusion [68.8204255655161]
マルチオブジェクトトラッキング(MOT)により、移動ロボットは周囲の物体を3次元空間と時間で位置づけすることで、良好な動作計画とナビゲーションを行うことができる。
既存の方法は、深度センサー(例えばLiDAR)を使用して3D空間のターゲットを検出し追跡するが、信号の間隔が限られているため、検出範囲は限られている。
我々は,両方のセンサモダリティから利用可能な物体を全て統合し,シーンのダイナミックスを適切に解釈する簡易なトラッキング定式化であるeagermotを提案する。
論文 参考訳(メタデータ) (2021-04-29T22:30:29Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。