論文の概要: Indoor Obstacle Discovery on Reflective Ground via Monocular Camera
- arxiv url: http://arxiv.org/abs/2401.01445v1
- Date: Tue, 2 Jan 2024 22:07:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:46:27.273795
- Title: Indoor Obstacle Discovery on Reflective Ground via Monocular Camera
- Title(参考訳): 反射地における単眼カメラによる屋内障害物発見
- Authors: Feng Xue and Yicong Chang and Tianxi Wang and Yu Zhou and Anlong Ming
- Abstract要約: 視覚的障害物発見は、屋内移動ロボットの自律的なナビゲーションに向けた重要なステップである。
本稿では, この問題の鍵は, 反射や障害物に対する識別的特徴の獲得にあると論じる。
本稿では, 反射地におけるObstacle on Reflective Ground (ORG) の新たなデータセットについて紹介する。
- 参考スコア(独自算出の注目度): 21.19387987977164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual obstacle discovery is a key step towards autonomous navigation of
indoor mobile robots. Successful solutions have many applications in multiple
scenes. One of the exceptions is the reflective ground. In this case, the
reflections on the floor resemble the true world, which confuses the obstacle
discovery and leaves navigation unsuccessful. We argue that the key to this
problem lies in obtaining discriminative features for reflections and
obstacles. Note that obstacle and reflection can be separated by the ground
plane in 3D space. With this observation, we firstly introduce a
pre-calibration based ground detection scheme that uses robot motion to predict
the ground plane. Due to the immunity of robot motion to reflection, this
scheme avoids failed ground detection caused by reflection. Given the detected
ground, we design a ground-pixel parallax to describe the location of a pixel
relative to the ground. Based on this, a unified appearance-geometry feature
representation is proposed to describe objects inside rectangular boxes.
Eventually, based on segmenting by detection framework, an appearance-geometry
fusion regressor is designed to utilize the proposed feature to discover the
obstacles. It also prevents our model from concentrating too much on parts of
obstacles instead of whole obstacles. For evaluation, we introduce a new
dataset for Obstacle on Reflective Ground (ORG), which comprises 15 scenes with
various ground reflections, a total of more than 200 image sequences and 3400
RGB images. The pixel-wise annotations of ground and obstacle provide a
comparison to our method and other methods. By reducing the misdetection of the
reflection, the proposed approach outperforms others. The source code and the
dataset will be available at
https://github.com/XuefengBUPT/IndoorObstacleDiscovery-RG.
- Abstract(参考訳): 視覚障害物発見は、屋内移動ロボットの自律ナビゲーションへの重要な一歩である。
成功したソリューションは、複数の場面で多くのアプリケーションを持つ。
例外の1つは反射基底である。
この場合、床の反射は真の世界と似ており、障害物発見を混乱させ、ナビゲーションは失敗に終わる。
この問題の鍵は、リフレクションや障害に対する差別的特徴の獲得にあると我々は主張する。
障害物と反射は3次元空間の接地平面によって分離できる。
そこで本研究では,まずロボットの動きを利用して地平面を予測できる事前校正に基づく地中検出手法を提案する。
反射に対するロボットの動きの免疫のため、このスキームは反射による地面検出の失敗を避ける。
検出された地盤を考慮すれば、地上に対する画素の位置を記述するために、地上画素パララックスを設計する。
これに基づいて、矩形箱内のオブジェクトを記述するために、統一的な外観幾何学的特徴表現を提案する。
最終的に、segmenting by detection frameworkに基づいて、exe-geometry fusion regressor が提案する機能を利用して障害物を検出する。
また、モデルが障害物全体ではなく障害物の一部に集中しすぎることも防げます。
そこで本研究では,様々な反射面を有する15シーン,200以上の画像シーケンス,3400 rgb画像からなる,反射面上の障害物のための新しいデータセットを提案する。
グラウンドと障害物のピクセルワイドアノテーションは,本手法と他の手法との比較を提供する。
反射の誤検出を減らすことで、提案手法は他よりも優れている。
ソースコードとデータセットはhttps://github.com/XuefengBUPT/IndoorObstacleDiscovery-RGで入手できる。
関連論文リスト
- Impact of Surface Reflections in Maritime Obstacle Detection [0.0]
海上障害物検出は、無人表面車両の自律走行において可能な障害物を検出することを目的としている。
以前の研究では、海上障害物検出タスクにおける物体検出のための偽陽性の源として表面反射が示されていた。
表面反射が検出性能に悪影響を及ぼすことを示す。
論文 参考訳(メタデータ) (2024-10-11T10:55:24Z) - Opening the Black Box of 3D Reconstruction Error Analysis with VECTOR [8.142689309891368]
VECTORは、ステレオ再構成のエラー検査を改善するビジュアル解析ツールである。
VECTORはNASAジェット推進研究所のPerseverance Mars RoverとIngenuity Mars Helicopterと共同で開発された。
我々は、このツールが、2020年火星ミッションの地形復元のデバッグと改善にどのように使われたかを報告する。
論文 参考訳(メタデータ) (2024-08-07T02:03:32Z) - Visible and Clear: Finding Tiny Objects in Difference Map [50.54061010335082]
本稿では,検出モデルに自己再構成機構を導入し,それと微小物体との強い相関関係を明らかにする。
具体的には、再構成画像と入力の差分マップを構築して、検出器の首の内側に再構成ヘッドを配置し、小さな物体に対して高い感度を示す。
さらに、小さな特徴表現をより明確にするために、差分マップガイド機能拡張(DGFE)モジュールを開発する。
論文 参考訳(メタデータ) (2024-05-18T12:22:26Z) - 3DRef: 3D Dataset and Benchmark for Reflection Detection in RGB and
Lidar Data [0.0]
本稿では,マルチリターンライダー,RGB画像,および2D/3Dセマンティックラベルの5万以上のサンプルを含む,最初の大規模3D反射検出データセットを提案する。
提案したデータセットは, 高精度なグローバルアライメント, マルチモーダルデータ, 多様な反射物体や材料を備えた総合的なテストベッドを提供することにより, 反射検出を推し進める。
論文 参考訳(メタデータ) (2024-03-11T09:29:44Z) - Zone Evaluation: Revealing Spatial Bias in Object Detection [69.59295428233844]
物体検出器の基本的限界は、それらが「空間バイアス」に苦しむことである。
本稿では,ゾーン間の検出性能を計測する新しいゾーン評価プロトコルを提案する。
初めて数値的な結果が得られ、対象検出器はゾーンにわたって非常に不均一に機能することを示した。
論文 参考訳(メタデータ) (2023-10-20T01:44:49Z) - MonoGAE: Roadside Monocular 3D Object Detection with Ground-Aware
Embeddings [29.050983641961658]
そこで我々は,モノGAEという,地表面認識による道路面モノクロ3次元物体検出のための新しいフレームワークを提案する。
提案手法は,道路側カメラの広範に認識されている3次元検出ベンチマークにおいて,従来のモノクル3次元物体検出器と比較して,かなりの性能上の優位性を示す。
論文 参考訳(メタデータ) (2023-09-30T14:52:26Z) - MonoTDP: Twin Depth Perception for Monocular 3D Object Detection in
Adverse Scenes [49.21187418886508]
本論文は,モノTDP(MonoTDP)と呼ばれる悪シーンにおける2つの深度を知覚するモノクル3次元検出モデルを提案する。
まず、制御不能な気象条件を扱うモデルを支援するための適応学習戦略を導入し、様々な劣化要因による劣化を著しく抑制する。
そこで本研究では, シーン深度と物体深度を同時に推定する新たな2つの深度認識モジュールを提案する。
論文 参考訳(メタデータ) (2023-05-18T13:42:02Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - DORT: Modeling Dynamic Objects in Recurrent for Multi-Camera 3D Object
Detection and Tracking [67.34803048690428]
本稿では、この問題を解決するためにRecurrenT(DORT)の動的オブジェクトをモデル化することを提案する。
DORTは、重い計算負担を軽減する動き推定のために、オブジェクトワイズローカルボリュームを抽出する。
フレキシブルで実用的で、ほとんどのカメラベースの3Dオブジェクト検出器に差し込むことができる。
論文 参考訳(メタデータ) (2023-03-29T12:33:55Z) - Det6D: A Ground-Aware Full-Pose 3D Object Detector for Improving Terrain
Robustness [1.4620086904601473]
空間的・姿勢的制約を伴わない初の完全自由度3次元物体検出器であるDet6Dを提案する。
ピッチやロールを含む全方向のポーズを予測するために,地上認識方向分岐を設計する。
異なる地形における本手法の有効性とロバスト性について実験を行った。
論文 参考訳(メタデータ) (2022-07-19T17:12:48Z) - Embracing Single Stride 3D Object Detector with Sparse Transformer [63.179720817019096]
自律走行のためのLiDARを用いた3次元物体検出では、物体サイズと入力シーンサイズとの比が2次元検出の場合に比べて有意に小さい。
多くの3D検出器は2D検出器の一般的な慣習に従っており、点雲の定量化後も特徴マップを分解する。
本稿では,SST(Single-stride Sparse Transformer)を提案する。
論文 参考訳(メタデータ) (2021-12-13T02:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。