論文の概要: Multi-Resolution POMDP Planning for Multi-Object Search in 3D
- arxiv url: http://arxiv.org/abs/2005.02878v5
- Date: Fri, 18 Mar 2022 17:29:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 05:58:34.516909
- Title: Multi-Resolution POMDP Planning for Multi-Object Search in 3D
- Title(参考訳): 3次元多目的探索のためのマルチレゾリューションpomdp計画
- Authors: Kaiyu Zheng, Yoonchang Sung, George Konidaris, Stefanie Tellex
- Abstract要約: フラストタル形状の視野を持つ3次元領域における多対象探索のためのPOMDPの定式化について述べる。
我々は,対象物体の異なる解像度レベルでの不確かさを捉えるために,新しいオクツリーに基づく信念表現を設計する。
移動ロボットによる2つの10m$2×2$m領域の異なる高さに配置された物体を、ベースを移動させ、胴体を作動させることにより、その位置を推定する手法を実証する。
- 参考スコア(独自算出の注目度): 26.683481431467783
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robots operating in households must find objects on shelves, under tables,
and in cupboards. In such environments, it is crucial to search efficiently at
3D scale while coping with limited field of view and the complexity of
searching for multiple objects. Principled approaches to object search
frequently use Partially Observable Markov Decision Process (POMDP) as the
underlying framework for computing search strategies, but constrain the search
space in 2D. In this paper, we present a POMDP formulation for multi-object
search in a 3D region with a frustum-shaped field-of-view. To efficiently solve
this POMDP, we propose a multi-resolution planning algorithm based on online
Monte-Carlo tree search. In this approach, we design a novel octree-based
belief representation to capture uncertainty of the target objects at different
resolution levels, then derive abstract POMDPs at lower resolutions with
dramatically smaller state and observation spaces. Evaluation in a simulated 3D
domain shows that our approach finds objects more efficiently and successfully
compared to a set of baselines without resolution hierarchy in larger instances
under the same computational requirement. We demonstrate our approach on a
mobile robot to find objects placed at different heights in two 10m$^2 \times
2$m regions by moving its base and actuating its torso.
- Abstract(参考訳): 家庭で動くロボットは棚やテーブルの下、カップボードに物を見つける必要がある。
このような環境では、限られた視野と複数の物体の探索の複雑さに対処しながら、3次元スケールで効率的に探索することが重要である。
オブジェクト探索に対する原則的アプローチは、部分的に観測可能なマルコフ決定プロセス(POMDP)を探索戦略の基盤となるフレームワークとして頻繁に用いているが、2Dでは探索空間を制限している。
本稿では,フラストタル型視野を持つ3次元領域における多対象探索のためのPOMDPの定式化について述べる。
このPOMDPを効率的に解くために,オンラインモンテカルロ木探索に基づく多分解能計画アルゴリズムを提案する。
提案手法では,異なる解像度で対象対象物の不確実性を捉えるために,新しいオクツリーに基づく信念表現を設計し,より小さな状態と観測空間を持つ低解像度の抽象POMDPを導出する。
シミュレーションによる3dドメインの評価は、同じ計算要件の下で、より大きなインスタンスの分解階層を持たない一連のベースラインと比較して、より効率的かつ効果的にオブジェクトを見出す方法を示している。
移動ロボットによる2つの10m$^2 \times 2$m領域の異なる高さに配置された物体の移動と,その胴体の動きによる動作を実証する。
関連論文リスト
- Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - MMRDN: Consistent Representation for Multi-View Manipulation
Relationship Detection in Object-Stacked Scenes [62.20046129613934]
我々は,MMRDN(Multi-view MRD Network)と呼ばれる新しい多視点融合フレームワークを提案する。
異なるビューからの2Dデータを共通の隠れ空間に投影し、埋め込みをVon-Mises-Fisher分布に適合させる。
これら2つのオブジェクトの相対位置を符号化した各オブジェクト対の点雲から、K$最大垂直近傍点(KMVN)の集合を選択する。
論文 参考訳(メタデータ) (2023-04-25T05:55:29Z) - Scatter Points in Space: 3D Detection from Multi-view Monocular Images [8.71944437852952]
単眼画像からの3次元物体検出は,コンピュータビジョンの課題であり,長年の課題である。
近年の手法では, 空間に密集した正規3次元格子をサンプリングすることにより, マルチビュー特性を集約する傾向にある。
そこで本研究では,データ空間に擬似曲面点を散布し,データの分散性を維持するための学習可能なキーポイントサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-08-31T09:38:05Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - MonoGRNet: A General Framework for Monocular 3D Object Detection [23.59839921644492]
幾何学的推論によるモノクロ画像からのアモーダル3次元物体検出のためのMonoGRNetを提案する。
MonoGRNetは、モノラル3Dオブジェクト検出タスクを2Dオブジェクト検出、インスタンスレベルの深さ推定、投影された3Dセンター推定、ローカルコーナー回帰を含む4つのサブタスクに分解する。
KITTI、Cityscapes、MS COCOデータセットで実験が行われた。
論文 参考訳(メタデータ) (2021-04-18T10:07:52Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。