論文の概要: People Tracking in Panoramic Video for Guiding Robots
- arxiv url: http://arxiv.org/abs/2206.02735v1
- Date: Mon, 6 Jun 2022 16:44:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-07 17:20:58.385689
- Title: People Tracking in Panoramic Video for Guiding Robots
- Title(参考訳): パノラマビデオでロボットを誘導する人々
- Authors: Alberto Bacchin, Filippo Berno, Emanuele Menegatti, and Alberto Pretto
- Abstract要約: ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
- 参考スコア(独自算出の注目度): 2.092922495279074
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A guiding robot aims to effectively bring people to and from specific places
within environments that are possibly unknown to them. During this operation
the robot should be able to detect and track the accompanied person, trying
never to lose sight of her/him. A solution to minimize this event is to use an
omnidirectional camera: its 360{\deg} Field of View (FoV) guarantees that any
framed object cannot leave the FoV if not occluded or very far from the sensor.
However, the acquired panoramic videos introduce new challenges in perception
tasks such as people detection and tracking, including the large size of the
images to be processed, the distortion effects introduced by the cylindrical
projection and the periodic nature of panoramic images. In this paper, we
propose a set of targeted methods that allow to effectively adapt to panoramic
videos a standard people detection and tracking pipeline originally designed
for perspective cameras. Our methods have been implemented and tested inside a
deep learning-based people detection and tracking framework with a commercial
360{\deg} camera. Experiments performed on datasets specifically acquired for
guiding robot applications and on a real service robot show the effectiveness
of the proposed approach over other state-of-the-art systems. We release with
this paper the acquired and annotated datasets and the open-source
implementation of our method.
- Abstract(参考訳): 案内ロボットは、おそらく未知の環境内の特定の場所から人々を効果的に呼び寄せることを目的としている。
この操作の間、ロボットは同行者を検知し追跡することができ、彼女/ヒムを見失おうとはしない。
360{\deg} Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
しかし,取得したパノラマビデオでは,処理対象画像の大きさ,円筒投影による歪み効果,パノラマ画像の周期的性質など,人物検出や追跡などの知覚タスクにおける新たな課題が紹介されている。
本稿では,視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適用可能な,対象とする一連の手法を提案する。
提案手法は,360{\deg}カメラを用いた深層学習に基づく人物検出・追跡フレームワーク内に実装・テストされている。
ロボットアプリケーションを導くために特別に取得されたデータセットや、実際のサービスロボットで実施された実験は、他の最先端システムに対する提案されたアプローチの有効性を示している。
本稿では,得られた注釈付きデータセットと,提案手法のオープンソース実装について述べる。
関連論文リスト
- ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - Analysis of Unstructured High-Density Crowded Scenes for Crowd Monitoring [55.2480439325792]
我々は,人群集の組織的動きを検出する自動システムの開発に興味がある。
コンピュータビジョンアルゴリズムは、混雑したシーンのビデオから情報を抽出することができる。
組織化されたコホート内の参加者数を見積もることができます。
論文 参考訳(メタデータ) (2024-08-06T22:09:50Z) - Vision-based Manipulation from Single Human Video with Open-World Object Graphs [58.23098483464538]
我々は、人間のビデオから視覚に基づく操作スキルを学ぶために、ロボットに力を与えるオブジェクト中心のアプローチを提案する。
ORIONは,単一のRGB-Dビデオからオブジェクト中心の操作計画を抽出することで,この問題に対処するアルゴリズムである。
論文 参考訳(メタデータ) (2024-05-30T17:56:54Z) - PathFinder: Attention-Driven Dynamic Non-Line-of-Sight Tracking with a Mobile Robot [3.387892563308912]
注目型ニューラルネットワークを用いてLOS(Line-of-sight)ビデオにおける動的逐次フレームのシーケンスを処理する新しい手法を提案する。
我々は,映像撮影のためのドローンによる現場撮影のアプローチを検証し,ダイナミックキャプチャ環境での低コストなNLOSイメージングを実証した。
論文 参考訳(メタデータ) (2024-04-07T17:31:53Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Estimation of Appearance and Occupancy Information in Birds Eye View
from Surround Monocular Images [2.69840007334476]
Birds-eye View (BEV)は、トップダウンビューから、エゴ車両フレーム内の異なる交通参加者の位置を表す。
360デグ視野(FOV)をカバーするモノクラーカメラのアレイから、様々な交通参加者の外観や占有情報をキャプチャする新しい表現を提案する。
我々は、すべてのカメラ画像の学習画像埋め込みを使用して、シーンの外観と占有度の両方をキャプチャする瞬間に、シーンのBEVを生成する。
論文 参考訳(メタデータ) (2022-11-08T20:57:56Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Three-dimensional Human Tracking of a Mobile Robot by Fusion of Tracking
Results of Two Cameras [0.860255319568951]
OpenPoseは人間の検出に使われる。
この問題に対処するための新しいステレオビジョンフレームワークが提案されている。
提案手法の有効性を目標追跡実験により検証した。
論文 参考訳(メタデータ) (2020-07-03T06:46:49Z) - One-Shot Informed Robotic Visual Search in the Wild [29.604267552742026]
本研究では,環境モニタリングのための映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、フィールドロボットの大多数は、未構造化の自然環境における監視タスクを実行しており、経路追跡を通じて、指定された経路ポイントのシーケンスをナビゲートしている。
そこで本研究では,ロボットの視覚的探索を視覚的類似度演算子を用いて視覚的ナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2020-03-22T22:14:42Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z) - Morphology-Agnostic Visual Robotic Control [76.44045983428701]
MAVRICは、ロボットの形態に関する最小限の知識で機能するアプローチである。
本稿では,視覚誘導型3Dポイントリーチ,軌道追従,ロボットとロボットの模倣について紹介する。
論文 参考訳(メタデータ) (2019-12-31T15:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。