論文の概要: Pose-Assisted Multi-Camera Collaboration for Active Object Tracking
- arxiv url: http://arxiv.org/abs/2001.05161v1
- Date: Wed, 15 Jan 2020 07:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 07:18:01.904977
- Title: Pose-Assisted Multi-Camera Collaboration for Active Object Tracking
- Title(参考訳): 能動物体追跡のための多カメラ協調法
- Authors: Jing Li and Jing Xu and Fangwei Zhong and Xiangyu Kong and Yu Qiao and
Yizhou Wang
- Abstract要約: アクティブオブジェクト追跡(AOT)は、モバイルロボット、インテリジェント監視など、多くのビジョンベースのアプリケーションに不可欠である。
本稿では,単一カメラのAOTをマルチカメラ環境に拡張し,カメラが目標を協調的に追跡する手法を提案する。
本稿では,カメラが物体追跡のためのカメラのポーズを共有することによって,他者との協調を可能にする,Pose-Assisted Multi-Camera Collaboration Systemを提案する。
- 参考スコア(独自算出の注目度): 42.57706021569103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Object Tracking (AOT) is crucial to many visionbased applications,
e.g., mobile robot, intelligent surveillance. However, there are a number of
challenges when deploying active tracking in complex scenarios, e.g., target is
frequently occluded by obstacles. In this paper, we extend the single-camera
AOT to a multi-camera setting, where cameras tracking a target in a
collaborative fashion. To achieve effective collaboration among cameras, we
propose a novel Pose-Assisted Multi-Camera Collaboration System, which enables
a camera to cooperate with the others by sharing camera poses for active object
tracking. In the system, each camera is equipped with two controllers and a
switcher: The vision-based controller tracks targets based on observed images.
The pose-based controller moves the camera in accordance to the poses of the
other cameras. At each step, the switcher decides which action to take from the
two controllers according to the visibility of the target. The experimental
results demonstrate that our system outperforms all the baselines and is
capable of generalizing to unseen environments. The code and demo videos are
available on our website
https://sites.google.com/view/pose-assistedcollaboration.
- Abstract(参考訳): アクティブオブジェクト追跡(AOT)は、モバイルロボット、インテリジェント監視など、多くのビジョンベースのアプリケーションに不可欠である。
しかし、複雑なシナリオにおいてアクティブトラッキングをデプロイする場合、例えば、ターゲットは障害によって隠蔽されることが多い。
本稿では,単一カメラのAOTをマルチカメラ環境に拡張し,カメラが目標を協調的に追跡する手法を提案する。
本稿では,カメラ間の効果的な協調を実現するために,カメラポーズの共有により,カメラが他者と協調してアクティブな物体追跡を行う,ポーズ支援型多カメラ協調システムを提案する。
システムでは、各カメラは2つのコントローラとスイッチタを備える: 視覚ベースのコントローラは、観測された画像に基づいてターゲットを追跡する。
ポーズベースのコントローラは、他のカメラのポーズに応じてカメラを移動させる。
各ステップで、スイッチャーは、ターゲットの可視性に応じて、2つのコントローラからどのアクションを取るかを決定する。
実験の結果,本システムはすべてのベースラインを上回り,目に見えない環境に一般化できることがわかった。
コードとデモビデオは、私たちのwebサイトhttps://sites.google.com/view/pose-assistedcollaborationで閲覧できます。
関連論文リスト
- Direct-a-Video: Customized Video Generation with User-Directed Camera Movement and Object Motion [34.404342332033636]
我々は、カメラのパンやズームの動きだけでなく、複数のオブジェクトのモーションを独立して指定できるシステムであるDirect-a-Videoを紹介した。
カメラの動きの定量的なパラメータを解釈するために,新しい時間的クロスアテンション層を導入する。
どちらのコンポーネントも独立して動作し、個別または複合的な制御を可能にし、オープンドメインシナリオに一般化することができる。
論文 参考訳(メタデータ) (2024-02-05T16:30:57Z) - Enabling Cross-Camera Collaboration for Video Analytics on Distributed
Smart Cameras [7.609628915907225]
本稿では、スマートカメラ上でのクロスカメラコラボレーションによる分散ビデオ分析システムArgusを紹介する。
マルチカメラ・マルチターゲットトラッキングを主課題であるマルチカメラ・ビデオ分析とし、冗長で処理量の多いタスクを避ける新しい手法を開発した。
Argusは最先端と比較してオブジェクトの識別とエンドツーエンドのレイテンシを最大7.13倍と2.19倍に削減する。
論文 参考訳(メタデータ) (2024-01-25T12:27:03Z) - Towards Effective Multi-Moving-Camera Tracking: A New Dataset and Lightweight Link Model [4.581852145863394]
Multi-target Multi-camera (MTMC) トラッキングシステムは,SCT ( Single-camera Track) とICT (Inter-camera Track) の2つのモジュールで構成されている。
MTMCの追跡は非常に複雑な作業だが、複数の移動カメラを横切るとさらに困難になる。
同一ターゲットの2つの解離トラックレットを同一カメラ内の完全な軌跡に関連付けることにより、識別スイッチを緩和する。
論文 参考訳(メタデータ) (2023-12-18T09:11:28Z) - Learning Active Camera for Multi-Object Navigation [94.89618442412247]
ロボットアプリケーションでは、ロボットが複数のオブジェクトに自律的にナビゲートすることが不可欠だが、難しい。
既存のナビゲーション手法は主に固定カメラに焦点を当てており、アクティブカメラでナビゲートする試みはほとんど行われていない。
本稿では,アクティブカメラを用いて,複数の物体へのナビゲーションをより効率的に行うことを検討する。
論文 参考訳(メタデータ) (2022-10-14T04:17:30Z) - Multi-Target Active Object Tracking with Monte Carlo Tree Search and
Target Motion Modeling [126.26121580486289]
本研究は,マルチターゲットアクティブオブジェクトトラッキング(AOT)に重点を置いており,複数のターゲットと環境に複数のカメラが配置されている。
目標は、全カメラの全体的な対象範囲を最大化することです。
スポーツゲームをシミュレートするマルチターゲット2D環境を構築し,本手法が対象範囲を効果的に改善できることを示す実験結果を得た。
論文 参考訳(メタデータ) (2022-05-07T05:08:15Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - Coordinate-Aligned Multi-Camera Collaboration for Active Multi-Object
Tracking [114.16306938870055]
AMOTのための座標整列型マルチカメラ協調システムを提案する。
提案手法では,各カメラをエージェントとみなし,マルチエージェント強化学習ソリューションを用いてAMOTに対処する。
本システムでは,ベースライン法を8.9%上回る71.88%のカバレッジを実現している。
論文 参考訳(メタデータ) (2022-02-22T13:28:40Z) - Attentive and Contrastive Learning for Joint Depth and Motion Field
Estimation [76.58256020932312]
単眼視システムからシーンの3次元構造とともにカメラの動きを推定することは複雑な作業である。
モノクロ映像からの3次元物体運動場推定のための自己教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-10-13T16:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。