論文の概要: A Flexible Framework for Virtual Omnidirectional Vision to Improve
Operator Situation Awareness
- arxiv url: http://arxiv.org/abs/2302.00362v1
- Date: Wed, 1 Feb 2023 10:40:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 17:43:50.144812
- Title: A Flexible Framework for Virtual Omnidirectional Vision to Improve
Operator Situation Awareness
- Title(参考訳): 仮想全方位視のためのフレキシブルフレームワークによる操作者状況認識の改善
- Authors: Martin Oehler and Oskar von Stryk
- Abstract要約: 本稿では,ロボットのどこに設置した複数のカメラを融合させる新しい手法に基づいて,仮想プロジェクションのためのフレキシブルなフレームワークを提案する。
カメラ画像と幾何学的3Dライダーデータを融合させることでシーン理解を改善するための補完的なアプローチを提案し,色付き点雲を得る。
- 参考スコア(独自算出の注目度): 2.817412580574242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: During teleoperation of a mobile robot, providing good operator situation
awareness is a major concern as a single mistake can lead to mission failure.
Camera streams are widely used for teleoperation but offer limited
field-of-view. In this paper, we present a flexible framework for virtual
projections to increase situation awareness based on a novel method to fuse
multiple cameras mounted anywhere on the robot. Moreover, we propose a
complementary approach to improve scene understanding by fusing camera images
and geometric 3D Lidar data to obtain a colorized point cloud. The
implementation on a compact omnidirectional camera reduces system complexity
considerably and solves multiple use-cases on a much smaller footprint compared
to traditional approaches such as actuated pan-tilt units. Finally, we
demonstrate the generality of the approach by application to the multi-camera
system of the Boston Dynamics Spot. The software implementation is available as
open-source ROS packages on the project page
https://tu-darmstadt-ros-pkg.github.io/omnidirectional_vision.
- Abstract(参考訳): 移動ロボットの遠隔操作においては,単一のミスがミッション失敗に繋がるおそれがあるため,オペレーターの状況把握が重要である。
カメラストリームは遠隔操作に広く使われているが、視野は限られている。
本稿では,ロボットのどこに設置した複数のカメラを融合させる新しい手法に基づいて,仮想投影のためのフレキシブルなフレームワークを提案する。
さらに,カメラ画像と幾何学的3Dライダーデータを融合させることでシーン理解を改善するための補完的手法を提案する。
コンパクト全方位カメラの実装はシステムの複雑さを大幅に低減し、アクティベートされたパンティルトユニットのような従来のアプローチと比較して、フットプリントの複数のユースケースを解決する。
最後に,boston dynamics spotのマルチカメラシステムへの適用により,このアプローチの汎用性を示す。
ソフトウェア実装はプロジェクトページ https://tu-darmstadt-ros-pkg.github.io/omnidirectional_vision でオープンソースROSパッケージとして公開されている。
関連論文リスト
- Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - Multi-Camera Hand-Eye Calibration for Human-Robot Collaboration in Industrial Robotic Workcells [3.76054468268713]
産業シナリオでは、人間とロボットの効果的なコラボレーションは、人間のオペレーターをしっかりと監視するマルチカメラシステムに依存している。
本稿では,ロボットのベースとカメラの双方に対して,それぞれのカメラのポーズを最適化する,革新的で堅牢なマルチカメラハンドアイキャリブレーション手法を提案する。
産業シナリオで収集したMETRICデータセットと実世界のデータを用いた包括的実験により,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2024-06-17T10:23:30Z) - PathFinder: Attention-Driven Dynamic Non-Line-of-Sight Tracking with a Mobile Robot [3.387892563308912]
注目型ニューラルネットワークを用いてLOS(Line-of-sight)ビデオにおける動的逐次フレームのシーケンスを処理する新しい手法を提案する。
我々は,映像撮影のためのドローンによる現場撮影のアプローチを検証し,ダイナミックキャプチャ環境での低コストなNLOSイメージングを実証した。
論文 参考訳(メタデータ) (2024-04-07T17:31:53Z) - VICAN: Very Efficient Calibration Algorithm for Large Camera Networks [49.17165360280794]
ポースグラフ最適化手法を拡張する新しい手法を提案する。
我々は、カメラを含む二部グラフ、オブジェクトの動的進化、各ステップにおけるカメラオブジェクト間の相対変換について考察する。
我々のフレームワークは従来のPGOソルバとの互換性を維持しているが、その有効性はカスタマイズされた最適化方式の恩恵を受けている。
論文 参考訳(メタデータ) (2024-03-25T17:47:03Z) - EffLoc: Lightweight Vision Transformer for Efficient 6-DOF Camera
Relocalization [12.980447668368274]
EffLocは,シングルイメージカメラ再ローカライズのための新しい視覚変換器である。
EffLocは効率と正確性に優れ、AtLocやMapNetといった先行手法よりも優れています。
大規模な屋外自動車運転のシナリオで成長し、シンプルさを確保し、エンドツーエンドのトレーニング性を確保し、手作りの損失関数をなくす。
論文 参考訳(メタデータ) (2024-02-21T05:26:17Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - Lasers to Events: Automatic Extrinsic Calibration of Lidars and Event
Cameras [67.84498757689776]
本稿では,イベントカメラとライダーの直接校正法について述べる。
フレームベースのカメラインターミディエートおよび/または高精度の手測定への依存を除去する。
論文 参考訳(メタデータ) (2022-07-03T11:05:45Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - AirPose: Multi-View Fusion Network for Aerial 3D Human Pose and Shape
Estimation [51.17610485589701]
本研究では,非構造屋外環境のための新しいマーカーレス3次元モーションキャプチャ(MoCap)システムを提案する。
AirPoseは複数の無人飛行カメラで撮影された画像を使って人間のポーズと形状を推定する。
AirPose自体は、事前校正に頼らずに、人のカメラを校正する。
論文 参考訳(メタデータ) (2022-01-20T09:46:20Z) - Single RGB-D Camera Teleoperation for General Robotic Manipulation [25.345197924615793]
人間のモーションキャプチャー装置として1台のRGB-Dカメラを用いた遠隔操作システムを提案する。
本システムでは, 布の折り畳み, 打抜き, 穴内の3mmクリアランスペグなど, 汎用的な操作を行うことができる。
論文 参考訳(メタデータ) (2021-06-28T05:07:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。