論文の概要: Multi Camera Placement via Z-buffer Rendering for the Optimization of
the Coverage and the Visual Hull
- arxiv url: http://arxiv.org/abs/2103.11211v1
- Date: Sat, 20 Mar 2021 17:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:11:32.717320
- Title: Multi Camera Placement via Z-buffer Rendering for the Optimization of
the Coverage and the Visual Hull
- Title(参考訳): 被写体と視力の最適化のためのZバッファレンダリングによるマルチカメラ配置
- Authors: Maria L. H\"anel and Johannes V\"olkel and Dominik Henrich
- Abstract要約: 障害セーフシステムは、ロボットワークセルの重要な領域を安全重複で最適にカバーする必要がある。
ワークセルの3次元CADモデルにカメラを最適配置・配向するための効率的なアルゴリズムを提案します。
このシミュレーションにより、静的および動的視覚障害物の存在下で、画像の歪みや高度な画像解析に関する品質を評価することができる。
- 参考スコア(独自算出の注目度): 2.642698101441705
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We can only allow human-robot-cooperation in a common work cell if the human
integrity is guaranteed. A surveillance system with multiple cameras can detect
collisions without contact to the human collaborator. A failure safe system
needs to optimally cover the important areas of the robot work cell with safety
overlap. We propose an efficient algorithm for optimally placing and orienting
the cameras in a 3D CAD model of the work cell. In order to evaluate the
quality of the camera constellation in each step, our method simulates the
vision system using a z-buffer rendering technique for image acquisition, a
voxel space for the overlap and a refined visual hull method for a conservative
human reconstruction. The simulation allows to evaluate the quality with
respect to the distortion of images and advanced image analysis in the presence
of static and dynamic visual obstacles such as tables, racks, walls, robots and
people. Our method is ideally suited for maximizing the coverage of multiple
cameras or minimizing an error made by the visual hull and can be extended to
probabilistic space carving.
- Abstract(参考訳): 人間の完全性が保証されている場合、共通のワークセルで人間とロボットの協力を許可するだけである。
複数のカメラを備えた監視システムは、人間の協力者に接触することなく衝突を検出することができる。
障害セーフシステムは、ロボットワークセルの重要な領域を安全重複で最適にカバーする必要がある。
ワークセルの3次元CADモデルにカメラを最適配置・配向する効率的なアルゴリズムを提案する。
各ステップにおけるカメラコンステレーションの品質を評価するため、画像取得のためのzバッファレンダリング技術、オーバーラップのためのボクセル空間、保守的な人体再構成のための精細な視覚内包手法を用いて視覚システムをシミュレートした。
このシミュレーションは、テーブル、ラック、壁、ロボット、人といった静的および動的視覚障害の存在下で、画像の歪みと高度な画像解析に関して品質を評価することができる。
本手法は,複数のカメラのカバー範囲を最大化したり,視覚ハルによる誤差を最小化するのに理想的であり,確率的空間彫刻に拡張できる。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - Proactive Multi-Camera Collaboration For 3D Human Pose Estimation [16.628446718419344]
本稿では,3次元人物位置推定におけるプロアクティブなマルチカメラ協調のためのマルチエージェント強化学習手法を提案する。
アクティブカメラは3次元再構成に最適な視点を求めるために、積極的にカメラのポーズを制御している。
我々は、環境ダイナミクスをよりよく捉えるために、複数の世界ダイナミクス学習タスクでモデルを共同で訓練する。
論文 参考訳(メタデータ) (2023-03-07T10:01:00Z) - A Flexible Framework for Virtual Omnidirectional Vision to Improve
Operator Situation Awareness [2.817412580574242]
本稿では,ロボットのどこに設置した複数のカメラを融合させる新しい手法に基づいて,仮想プロジェクションのためのフレキシブルなフレームワークを提案する。
カメラ画像と幾何学的3Dライダーデータを融合させることでシーン理解を改善するための補完的なアプローチを提案し,色付き点雲を得る。
論文 参考訳(メタデータ) (2023-02-01T10:40:05Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - A Distance-Geometric Method for Recovering Robot Joint Angles From an
RGB Image [7.971699294672282]
本稿では,ロボットマニピュレータの関節角度を現在の構成の1つのRGB画像のみを用いて検索する手法を提案する。
提案手法は,構成空間の距離幾何学的表現に基づいて,ロボットの運動モデルに関する知識を活用する。
論文 参考訳(メタデータ) (2023-01-05T12:57:45Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。