論文の概要: OA-NBV: Occlusion-Aware Next-Best-View Planning for Human-Centered Active Perception on Mobile Robots
- arxiv url: http://arxiv.org/abs/2603.11072v1
- Date: Tue, 10 Mar 2026 18:46:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.496423
- Title: OA-NBV: Occlusion-Aware Next-Best-View Planning for Human-Centered Active Perception on Mobile Robots
- Title(参考訳): OA-NBV:移動ロボットにおける人間中心型能動知覚のための隠蔽型次世代視点計画
- Authors: Boxun Hu, Chang Chang, Jiawei Ge, Man Namgung, Xiaomin Lin, Axel Krieger, Tinoosh Mohsenin,
- Abstract要約: 移動ロボット(OA-NBV)における人間中心型能動知覚のための隠蔽型次世代視点計画
OA-NBVは、目標中心の可視性モデルを用いて、候補視点を評価することによって、知覚と運動計画を統合する。
シミュレーションと実世界の試験の両方で90%以上の成功率を達成する。
- 参考スコア(独自算出の注目度): 5.144752180511484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We naturally step sideways or lean to see around the obstacle when our view is blocked, and recover a more informative observation. Enabling robots to make the same kind of viewpoint choice is critical for human-centered operations, including search, triage, and disaster response, where cluttered environments and partial visibility frequently degrade downstream perception. However, many Next-Best-View (NBV) methods primarily optimize generic exploration or long-horizon coverage, and do not explicitly target the immediate goal of obtaining a single usable observation of a partially occluded person under real motion constraints. We present Occlusion-Aware Next-Best-View Planning for Human-Centered Active Perception on Mobile Robots (OA-NBV), an occlusion-aware NBV pipeline that autonomously selects the next traversable viewpoint to obtain a more complete view of an occluded human. OA-NBV integrates perception and motion planning by scoring candidate viewpoints using a target-centric visibility model that accounts for occlusion, target scale, and target completeness, while restricting candidates to feasible robot poses. OA-NBV achieves over 90% success rate in both simulation and real-world trials, while baseline NBV methods degrade sharply under occlusion. Beyond success rate, OA-NBV improves observation quality: compared to the strongest baseline, it increases normalized target area by at least 81% and keypoint visibility by at least 58% across settings, making it a drop-in view-selection module for diverse human-centered downstream tasks.
- Abstract(参考訳): 自然に横に歩いたり傾いたりして、ビューがブロックされたときの障害を回避し、より情報的な観察を回復します。
ロボットが同じような視点選択を行うことは、検索、トリアージ、災害対応など、人間中心の操作において重要であり、環境が散らばり、部分的な視界が下流の知覚を劣化させる。
しかし、Next-Best-View (NBV) の手法の多くは、主に汎用的な探索や長距離探査を最適化しており、実際の動作制約の下で部分的に隠蔽された人の単一の使用可能な観察を得るという直接的な目標を目標としていない。
そこで我々は,人間中心型アクティブ知覚ロボット(OA-NBV)のOcclusion-Aware Next-Best-View Planning for Human-Centered Active Perception on Mobile Robots (OA-NBV)を提案する。
OA-NBVは、オクルージョン、ターゲットスケール、ターゲット完全性を考慮した目標中心の可視性モデルを用いて、候補の視点を評価することで、知覚と動きの計画を統合する。
OA-NBVはシミュレーションと実世界の試験の両方で90%以上の成功率を達成する一方、ベースラインのNBV法は閉塞下で急速に低下する。
成功率以外にも、OA-NBVは観測品質を向上させる。最強のベースラインと比較して、正規化対象領域を少なくとも81%増加させ、キーポイント可視性は少なくとも58%向上する。
関連論文リスト
- ReViP: Reducing False Completion in Vision-Language-Action Models with Vision-Proprioception Rebalance [50.05984919728878]
本稿では、視覚的接地と摂動下での堅牢性を高めるために、視覚-受容器リバランスを備えた新しいVLAフレームワークReViPを提案する。
具体的には、タスクステージオブザーバとして外部VLMを使用して、視覚的な観察からリアルタイムなタスク中心の視覚的手がかりを抽出する。
本稿では,オブジェクトドロップのような制御された設定を持つLIBERO上に構築された最初のFalse-Completion Benchmark Suiteを提案する。
論文 参考訳(メタデータ) (2026-01-23T11:31:07Z) - AerialMind: Towards Referring Multi-Object Tracking in UAV Scenarios [64.51320327698231]
UAVシナリオにおける最初の大規模RMOTベンチマークであるAerialMindを紹介する。
我々は、革新的な半自動協調型エージェントベースラベリングアシスタントフレームワークを開発した。
また,視覚言語表現学習を協調的に強化する新しい手法であるHawkEyeTrackを提案する。
論文 参考訳(メタデータ) (2025-11-26T04:44:27Z) - From Seeing to Doing: Bridging Reasoning and Decision for Robotic Manipulation [35.79160868966466]
FSD(From Seeing to Doing)は空間関係推論により中間表現を生成する新しい視覚言語モデルである。
提案手法は,空間座標を視覚信号と整列する自己整合性機構と,階層的なデータパイプラインを併用する。
我々は、FSDがSimplerEnvで40.6%の成功率、実世界の8つのタスクで72%の成功率を達成したことを示し、最強のベースラインを30%上回った。
論文 参考訳(メタデータ) (2025-05-13T13:20:46Z) - A Data-Centric Revisit of Pre-Trained Vision Models for Robot Learning [67.72413262980272]
事前訓練された視覚モデル(PVM)は現代のロボティクスの基本であるが、その最適構成は定かではない。
セマンティック・ボトルネックを導入してオブジェクト中心の表現を誘導する手法であるSlotMIMを開発した。
提案手法は,画像認識,シーン理解,ロボット学習評価において,従来の作業よりも大幅に改善されている。
論文 参考訳(メタデータ) (2025-03-10T06:18:31Z) - Gradient-based Local Next-best-view Planning for Improved Perception of Targeted Plant Nodes [0.0]
我々はこの問題をNBV計画タスクとして定式化する。
我々の定式化は、カットされる確率を最大化するために単一の目標ノードの認識精度を迅速に向上することに焦点を当てている。
本稿では, 局所勾配方向を直接推定するディファレンシャルレイサンプリングを用いた勾配型NBVプランナを提案する。
論文 参考訳(メタデータ) (2023-11-28T13:02:33Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。