論文の概要: Indoor Obstacle Discovery on Reflective Ground via Monocular Camera
- arxiv url: http://arxiv.org/abs/2401.01445v1
- Date: Tue, 2 Jan 2024 22:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:46:27.273795
- Title: Indoor Obstacle Discovery on Reflective Ground via Monocular Camera
- Title(参考訳): 反射地における単眼カメラによる屋内障害物発見
- Authors: Feng Xue and Yicong Chang and Tianxi Wang and Yu Zhou and Anlong Ming
- Abstract要約: 視覚的障害物発見は、屋内移動ロボットの自律的なナビゲーションに向けた重要なステップである。
本稿では, この問題の鍵は, 反射や障害物に対する識別的特徴の獲得にあると論じる。
本稿では, 反射地におけるObstacle on Reflective Ground (ORG) の新たなデータセットについて紹介する。
- 参考スコア(独自算出の注目度): 21.19387987977164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual obstacle discovery is a key step towards autonomous navigation of
indoor mobile robots. Successful solutions have many applications in multiple
scenes. One of the exceptions is the reflective ground. In this case, the
reflections on the floor resemble the true world, which confuses the obstacle
discovery and leaves navigation unsuccessful. We argue that the key to this
problem lies in obtaining discriminative features for reflections and
obstacles. Note that obstacle and reflection can be separated by the ground
plane in 3D space. With this observation, we firstly introduce a
pre-calibration based ground detection scheme that uses robot motion to predict
the ground plane. Due to the immunity of robot motion to reflection, this
scheme avoids failed ground detection caused by reflection. Given the detected
ground, we design a ground-pixel parallax to describe the location of a pixel
relative to the ground. Based on this, a unified appearance-geometry feature
representation is proposed to describe objects inside rectangular boxes.
Eventually, based on segmenting by detection framework, an appearance-geometry
fusion regressor is designed to utilize the proposed feature to discover the
obstacles. It also prevents our model from concentrating too much on parts of
obstacles instead of whole obstacles. For evaluation, we introduce a new
dataset for Obstacle on Reflective Ground (ORG), which comprises 15 scenes with
various ground reflections, a total of more than 200 image sequences and 3400
RGB images. The pixel-wise annotations of ground and obstacle provide a
comparison to our method and other methods. By reducing the misdetection of the
reflection, the proposed approach outperforms others. The source code and the
dataset will be available at
https://github.com/XuefengBUPT/IndoorObstacleDiscovery-RG.
- Abstract(参考訳): 視覚障害物発見は、屋内移動ロボットの自律ナビゲーションへの重要な一歩である。
成功したソリューションは、複数の場面で多くのアプリケーションを持つ。
例外の1つは反射基底である。
この場合、床の反射は真の世界と似ており、障害物発見を混乱させ、ナビゲーションは失敗に終わる。
この問題の鍵は、リフレクションや障害に対する差別的特徴の獲得にあると我々は主張する。
障害物と反射は3次元空間の接地平面によって分離できる。
そこで本研究では,まずロボットの動きを利用して地平面を予測できる事前校正に基づく地中検出手法を提案する。
反射に対するロボットの動きの免疫のため、このスキームは反射による地面検出の失敗を避ける。
検出された地盤を考慮すれば、地上に対する画素の位置を記述するために、地上画素パララックスを設計する。
これに基づいて、矩形箱内のオブジェクトを記述するために、統一的な外観幾何学的特徴表現を提案する。
最終的に、segmenting by detection frameworkに基づいて、exe-geometry fusion regressor が提案する機能を利用して障害物を検出する。
また、モデルが障害物全体ではなく障害物の一部に集中しすぎることも防げます。
そこで本研究では,様々な反射面を有する15シーン,200以上の画像シーケンス,3400 rgb画像からなる,反射面上の障害物のための新しいデータセットを提案する。
グラウンドと障害物のピクセルワイドアノテーションは,本手法と他の手法との比較を提供する。
反射の誤検出を減らすことで、提案手法は他よりも優れている。
ソースコードとデータセットはhttps://github.com/XuefengBUPT/IndoorObstacleDiscovery-RGで入手できる。
関連論文リスト
- 3DRef: 3D Dataset and Benchmark for Reflection Detection in RGB and
Lidar Data [0.0]
本稿では,マルチリターンライダー,RGB画像,および2D/3Dセマンティックラベルの5万以上のサンプルを含む,最初の大規模3D反射検出データセットを提案する。
提案したデータセットは, 高精度なグローバルアライメント, マルチモーダルデータ, 多様な反射物体や材料を備えた総合的なテストベッドを提供することにより, 反射検出を推し進める。
論文 参考訳(メタデータ) (2024-03-11T09:29:44Z) - UniMODE: Unified Monocular 3D Object Detection [76.77182583753051]
我々は,鳥眼視(BEV)検出パラダイムに基づく検出器を構築した。
本稿では,この課題に起因する収束不安定性に対応するために,不均一なBEVグリッド設計を提案する。
統一検出器UniMODEが導出され、挑戦的なOmni3Dデータセットの先行技術を上回る。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Zone Evaluation: Revealing Spatial Bias in Object Detection [73.7417954099785]
物体検出器の基本的限界は、それらが「空間バイアス」に苦しむことである。
本稿では,ゾーン間の検出性能を計測する新しいゾーン評価プロトコルを提案する。
初めて数値的な結果が得られ、対象検出器はゾーンにわたって非常に不均一に機能することを示した。
論文 参考訳(メタデータ) (2023-10-20T01:44:49Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - MonoGAE: Roadside Monocular 3D Object Detection with Ground-Aware
Embeddings [29.050983641961658]
そこで我々は,モノGAEという,地表面認識による道路面モノクロ3次元物体検出のための新しいフレームワークを提案する。
提案手法は,道路側カメラの広範に認識されている3次元検出ベンチマークにおいて,従来のモノクル3次元物体検出器と比較して,かなりの性能上の優位性を示す。
論文 参考訳(メタデータ) (2023-09-30T14:52:26Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Det6D: A Ground-Aware Full-Pose 3D Object Detector for Improving Terrain
Robustness [1.4620086904601473]
空間的・姿勢的制約を伴わない初の完全自由度3次元物体検出器であるDet6Dを提案する。
ピッチやロールを含む全方向のポーズを予測するために,地上認識方向分岐を設計する。
異なる地形における本手法の有効性とロバスト性について実験を行った。
論文 参考訳(メタデータ) (2022-07-19T17:12:48Z) - Multiview Detection with Cardboard Human Modeling [23.072791405965415]
本研究では,人点雲モデリングに基づく新しい歩行者表現方式を提案する。
具体的には、人体深度推定のためのレイトレーシングを用いて、歩行者を地上の直立した薄い段ボールの点雲としてモデル化する。
論文 参考訳(メタデータ) (2022-07-05T12:47:26Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。