論文の概要: Multi-Sensor Next-Best-View Planning as Matroid-Constrained Submodular
Maximization
- arxiv url: http://arxiv.org/abs/2007.02084v1
- Date: Sat, 4 Jul 2020 12:28:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-13 13:45:26.888458
- Title: Multi-Sensor Next-Best-View Planning as Matroid-Constrained Submodular
Maximization
- Title(参考訳): マトロイド拘束下サブモジュラー最大化によるマルチセンサの次回のベストビュー計画
- Authors: Mikko Lauri, Joni Pajarinen, Jan Peters, Simone Frintrop
- Abstract要約: 複数のロボットのチームが捉えた深度画像を用いて3次元モデルを作成することの問題点を考察する。
次回のビュープランニングでは、現在のシーンモデルを使用して次の視点を選択します。
このユーティリティ関数を用いたマルチセンサの次ベクタービュープランニングは,マットロイド制約の下でのサブモジュラーの例であることを示す。
- 参考スコア(独自算出の注目度): 42.2136160962607
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D scene models are useful in robotics for tasks such as path planning,
object manipulation, and structural inspection. We consider the problem of
creating a 3D model using depth images captured by a team of multiple robots.
Each robot selects a viewpoint and captures a depth image from it, and the
images are fused to update the scene model. The process is repeated until a
scene model of desired quality is obtained. Next-best-view planning uses the
current scene model to select the next viewpoints. The objective is to select
viewpoints so that the images captured using them improve the quality of the
scene model the most. In this paper, we address next-best-view planning for
multiple depth cameras. We propose a utility function that scores sets of
viewpoints and avoids overlap between multiple sensors. We show that
multi-sensor next-best-view planning with this utility function is an instance
of submodular maximization under a matroid constraint. This allows the planning
problem to be solved by a polynomial-time greedy algorithm that yields a
solution within a constant factor from the optimal. We evaluate the performance
of our planning algorithm in simulated experiments with up to 8 sensors, and in
real-world experiments using two robot arms equipped with depth cameras.
- Abstract(参考訳): 3Dシーンモデルは、経路計画、オブジェクト操作、構造検査などのタスクにロボット工学で有用である。
複数のロボットのチームが捉えた深度画像を用いて3次元モデルを作成する問題を考える。
各ロボットは視点を選択し、そこから深度画像をキャプチャし、画像を融合してシーンモデルを更新する。
所望の品質のシーンモデルが得られるまでプロセスを繰り返します。
next-best-view planningは現在のシーンモデルを使用して次の視点を選択する。
目的は視点を選択することで、撮影された画像がシーンモデルの品質を最も良くすることです。
本稿では,複数の深度カメラの次回のベストビュー計画について述べる。
本稿では,複数のセンサ間の重なりを回避し,視点の集合をスコアするユーティリティ関数を提案する。
本稿では,このユーティリティ関数を用いたマルチセンサ次視点計画が,マトロイド制約下でのサブモジュラー最大化の例であることを示す。
これにより、最適値から定数係数内の解を得る多項式時間グリーディアルゴリズムによって計画問題を解くことができる。
本研究では,最大8個のセンサを用いたシミュレーション実験と,深度カメラを備えたロボットアームを用いた実世界実験において,計画アルゴリズムの性能評価を行った。
関連論文リスト
- Track Initialization and Re-Identification for~3D Multi-View Multi-Object Tracking [12.389483990547223]
モノクロカメラからの2次元検出のみを用いた3次元多対象追跡(MOT)ソリューションを提案する。
我々は,複数のカメラから抽出した2次元検出と特徴を利用して,多目的フィルタリング密度をよりよく近似する。
論文 参考訳(メタデータ) (2024-05-28T21:36:16Z) - Multi-Model 3D Registration: Finding Multiple Moving Objects in
Cluttered Point Clouds [23.923838486208524]
マルチモデル3D登録問題(Multi-model 3D registration)のバリエーションについて検討する。
マルチモデル登録問題では、異なるポーズでオブジェクトの集合を撮影する2点の雲が与えられる。
私たちは、すべてのオブジェクトが2点の雲の間を移動する様子を同時に再構築したいと考えています。
論文 参考訳(メタデータ) (2024-02-16T18:01:43Z) - ImageManip: Image-based Robotic Manipulation with Affordance-guided Next
View Selection [10.162882793554191]
ロボットが環境と対話するためには、3Dの関節による物体操作が不可欠である。
既存の多くの研究では、操作ポリシーの主要な入力として3Dポイントクラウドを使用している。
RGB画像は、コスト効率の良い装置を用いた高分解能な観察を提供するが、空間的3次元幾何学的情報は欠如している。
このフレームワークは、対象対象物の複数の視点を捉え、その幾何学を補完するために深度情報を推測するように設計されている。
論文 参考訳(メタデータ) (2023-10-13T12:42:54Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - 3D modelling of survey scene from images enhanced with a multi-exposure
fusion [1.7816843507516948]
本稿では,画像の可視性を向上し,最終的に3次元シーンモデルの誤差を低減する手法を提案する。
このアイデアは、画像のデハージングにインスパイアされている。それぞれのオリジナル画像は、まず複数の露光画像に変換される。
拡張画像は、サブミリ平均誤差で3Dシーンモデルを再構成することができる。
論文 参考訳(メタデータ) (2021-11-10T06:02:44Z) - Soft Expectation and Deep Maximization for Image Feature Detection [68.8204255655161]
質問をひっくり返し、まず繰り返し可能な3Dポイントを探し、次に検出器を訓練して画像空間にローカライズする、反復的半教師付き学習プロセスSEDMを提案する。
以上の結果から,sdmを用いてトレーニングした新しいモデルでは,シーン内の下位3dポイントのローカライズが容易になった。
論文 参考訳(メタデータ) (2021-04-21T00:35:32Z) - CAMPARI: Camera-Aware Decomposed Generative Neural Radiance Fields [67.76151996543588]
画像だけでなく,カメラデータ分布を忠実に復元する3次元およびカメラ認識生成モデルについて検討した。
テスト時に、私たちのモデルは、カメラを明示的に制御し、シーンの形状と外観で画像を生成します。
論文 参考訳(メタデータ) (2021-03-31T17:59:24Z) - Shape and Viewpoint without Keypoints [63.26977130704171]
本研究では,1枚の画像から3次元形状,ポーズ,テクスチャを復元する学習フレームワークを提案する。
我々は,3次元形状,マルチビュー,カメラ視点,キーポイントの監督なしに画像収集を訓練した。
我々は、最先端のカメラ予測結果を取得し、オブジェクト間の多様な形状やテクスチャを予測することを学べることを示す。
論文 参考訳(メタデータ) (2020-07-21T17:58:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。