論文の概要: People Tracking in Panoramic Video for Guiding Robots
- arxiv url: http://arxiv.org/abs/2206.02735v1
- Date: Mon, 6 Jun 2022 16:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:20:58.385689
- Title: People Tracking in Panoramic Video for Guiding Robots
- Title(参考訳): パノラマビデオでロボットを誘導する人々
- Authors: Alberto Bacchin, Filippo Berno, Emanuele Menegatti, and Alberto Pretto
- Abstract要約: ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
- 参考スコア(独自算出の注目度): 2.092922495279074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A guiding robot aims to effectively bring people to and from specific places
within environments that are possibly unknown to them. During this operation
the robot should be able to detect and track the accompanied person, trying
never to lose sight of her/him. A solution to minimize this event is to use an
omnidirectional camera: its 360{\deg} Field of View (FoV) guarantees that any
framed object cannot leave the FoV if not occluded or very far from the sensor.
However, the acquired panoramic videos introduce new challenges in perception
tasks such as people detection and tracking, including the large size of the
images to be processed, the distortion effects introduced by the cylindrical
projection and the periodic nature of panoramic images. In this paper, we
propose a set of targeted methods that allow to effectively adapt to panoramic
videos a standard people detection and tracking pipeline originally designed
for perspective cameras. Our methods have been implemented and tested inside a
deep learning-based people detection and tracking framework with a commercial
360{\deg} camera. Experiments performed on datasets specifically acquired for
guiding robot applications and on a real service robot show the effectiveness
of the proposed approach over other state-of-the-art systems. We release with
this paper the acquired and annotated datasets and the open-source
implementation of our method.
- Abstract(参考訳): 案内ロボットは、おそらく未知の環境内の特定の場所から人々を効果的に呼び寄せることを目的としている。
この操作の間、ロボットは同行者を検知し追跡することができ、彼女/ヒムを見失おうとはしない。
360{\deg} Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
しかし,取得したパノラマビデオでは,処理対象画像の大きさ,円筒投影による歪み効果,パノラマ画像の周期的性質など,人物検出や追跡などの知覚タスクにおける新たな課題が紹介されている。
本稿では,視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適用可能な,対象とする一連の手法を提案する。
提案手法は,360{\deg}カメラを用いた深層学習に基づく人物検出・追跡フレームワーク内に実装・テストされている。
ロボットアプリケーションを導くために特別に取得されたデータセットや、実際のサービスロボットで実施された実験は、他の最先端システムに対する提案されたアプローチの有効性を示している。
本稿では,得られた注釈付きデータセットと,提案手法のオープンソース実装について述べる。
関連論文リスト
- Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Estimation of Appearance and Occupancy Information in Birds Eye View
from Surround Monocular Images [2.69840007334476]
Birds-eye View (BEV)は、トップダウンビューから、エゴ車両フレーム内の異なる交通参加者の位置を表す。
360デグ視野(FOV)をカバーするモノクラーカメラのアレイから、様々な交通参加者の外観や占有情報をキャプチャする新しい表現を提案する。
我々は、すべてのカメラ画像の学習画像埋め込みを使用して、シーンの外観と占有度の両方をキャプチャする瞬間に、シーンのBEVを生成する。
論文 参考訳(メタデータ) (2022-11-08T20:57:56Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Neural Scene Representation for Locomotion on Structured Terrain [56.48607865960868]
本研究では,都市環境を横断する移動ロボットの局所的な地形を再構築する学習手法を提案する。
搭載されたカメラとロボットの軌道からの深度測定のストリームを用いて、ロボットの近傍の地形を推定する。
ノイズ測定とカメラ配置の盲点からの大量の欠落データにもかかわらず,シーンを忠実に再構築する3次元再構成モデルを提案する。
論文 参考訳(メタデータ) (2022-06-16T10:45:17Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - CNN-based Omnidirectional Object Detection for HermesBot Autonomous
Delivery Robot with Preliminary Frame Classification [53.56290185900837]
予備的バイナリフレーム分類を用いた物体検出のためのニューラルネットワークの最適化アルゴリズムを提案する。
周囲に6台のローリングシャッターカメラを備えた自律移動ロボットを360度視野として実験装置として使用した。
論文 参考訳(メタデータ) (2021-10-22T15:05:37Z) - Three-dimensional Human Tracking of a Mobile Robot by Fusion of Tracking
Results of Two Cameras [0.860255319568951]
OpenPoseは人間の検出に使われる。
この問題に対処するための新しいステレオビジョンフレームワークが提案されている。
提案手法の有効性を目標追跡実験により検証した。
論文 参考訳(メタデータ) (2020-07-03T06:46:49Z) - One-Shot Informed Robotic Visual Search in the Wild [29.604267552742026]
本研究では,環境モニタリングのための映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、フィールドロボットの大多数は、未構造化の自然環境における監視タスクを実行しており、経路追跡を通じて、指定された経路ポイントのシーケンスをナビゲートしている。
そこで本研究では,ロボットの視覚的探索を視覚的類似度演算子を用いて視覚的ナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2020-03-22T22:14:42Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。