論文の概要: Multi Camera Placement via Z-buffer Rendering for the Optimization of
the Coverage and the Visual Hull
- arxiv url: http://arxiv.org/abs/2103.11211v1
- Date: Sat, 20 Mar 2021 17:04:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-23 14:11:32.717320
- Title: Multi Camera Placement via Z-buffer Rendering for the Optimization of
the Coverage and the Visual Hull
- Title(参考訳): 被写体と視力の最適化のためのZバッファレンダリングによるマルチカメラ配置
- Authors: Maria L. H\"anel and Johannes V\"olkel and Dominik Henrich
- Abstract要約: 障害セーフシステムは、ロボットワークセルの重要な領域を安全重複で最適にカバーする必要がある。
ワークセルの3次元CADモデルにカメラを最適配置・配向するための効率的なアルゴリズムを提案します。
このシミュレーションにより、静的および動的視覚障害物の存在下で、画像の歪みや高度な画像解析に関する品質を評価することができる。
- 参考スコア(独自算出の注目度): 2.642698101441705
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We can only allow human-robot-cooperation in a common work cell if the human
integrity is guaranteed. A surveillance system with multiple cameras can detect
collisions without contact to the human collaborator. A failure safe system
needs to optimally cover the important areas of the robot work cell with safety
overlap. We propose an efficient algorithm for optimally placing and orienting
the cameras in a 3D CAD model of the work cell. In order to evaluate the
quality of the camera constellation in each step, our method simulates the
vision system using a z-buffer rendering technique for image acquisition, a
voxel space for the overlap and a refined visual hull method for a conservative
human reconstruction. The simulation allows to evaluate the quality with
respect to the distortion of images and advanced image analysis in the presence
of static and dynamic visual obstacles such as tables, racks, walls, robots and
people. Our method is ideally suited for maximizing the coverage of multiple
cameras or minimizing an error made by the visual hull and can be extended to
probabilistic space carving.
- Abstract(参考訳): 人間の完全性が保証されている場合、共通のワークセルで人間とロボットの協力を許可するだけである。
複数のカメラを備えた監視システムは、人間の協力者に接触することなく衝突を検出することができる。
障害セーフシステムは、ロボットワークセルの重要な領域を安全重複で最適にカバーする必要がある。
ワークセルの3次元CADモデルにカメラを最適配置・配向する効率的なアルゴリズムを提案する。
各ステップにおけるカメラコンステレーションの品質を評価するため、画像取得のためのzバッファレンダリング技術、オーバーラップのためのボクセル空間、保守的な人体再構成のための精細な視覚内包手法を用いて視覚システムをシミュレートした。
このシミュレーションは、テーブル、ラック、壁、ロボット、人といった静的および動的視覚障害の存在下で、画像の歪みと高度な画像解析に関して品質を評価することができる。
本手法は,複数のカメラのカバー範囲を最大化したり,視覚ハルによる誤差を最小化するのに理想的であり,確率的空間彫刻に拡張できる。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Multi-Camera Hand-Eye Calibration for Human-Robot Collaboration in Industrial Robotic Workcells [3.76054468268713]
産業シナリオでは、人間とロボットの効果的なコラボレーションは、人間のオペレーターをしっかりと監視するマルチカメラシステムに依存している。
本稿では,ロボットのベースとカメラの双方に対して,それぞれのカメラのポーズを最適化する,革新的で堅牢なマルチカメラハンドアイキャリブレーション手法を提案する。
産業シナリオで収集したMETRICデータセットと実世界のデータを用いた包括的実験により,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T10:23:30Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Towards Scalable Multi-View Reconstruction of Geometry and Materials [27.660389147094715]
本稿では,3次元シーンのカメラポーズ,オブジェクト形状,空間変化の両方向反射分布関数(svBRDF)のジョイントリカバリ手法を提案する。
入力は高解像度のRGBD画像であり、アクティブ照明用の点灯付き携帯型ハンドヘルドキャプチャシステムによってキャプチャされる。
論文 参考訳(メタデータ) (2023-06-06T15:07:39Z) - A Distance-Geometric Method for Recovering Robot Joint Angles From an
RGB Image [7.971699294672282]
本稿では,ロボットマニピュレータの関節角度を現在の構成の1つのRGB画像のみを用いて検索する手法を提案する。
提案手法は,構成空間の距離幾何学的表現に基づいて,ロボットの運動モデルに関する知識を活用する。
論文 参考訳(メタデータ) (2023-01-05T12:57:45Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Nothing But Geometric Constraints: A Model-Free Method for Articulated
Object Pose Estimation [89.82169646672872]
本稿では,ロボットアームの関節構成を,モデルに先入観を持たずにRGBまたはRGB-D画像のシーケンスから推定する,教師なし視覚ベースシステムを提案する。
我々は,古典幾何学的定式化と深層学習を組み合わせることで,この課題を解決するために,極性多剛体制約を拡張した。
論文 参考訳(メタデータ) (2020-11-30T20:46:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。