論文の概要: Coordinate-Aligned Multi-Camera Collaboration for Active Multi-Object
Tracking
- arxiv url: http://arxiv.org/abs/2202.10881v1
- Date: Tue, 22 Feb 2022 13:28:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 20:35:27.444925
- Title: Coordinate-Aligned Multi-Camera Collaboration for Active Multi-Object
Tracking
- Title(参考訳): アクティブマルチオブジェクトトラッキングのための協調型マルチカメラコラボレーション
- Authors: Zeyu Fang, Jian Zhao, Mingyu Yang, Wengang Zhou, Zhenbo Lu, Houqiang
Li
- Abstract要約: AMOTのための座標整列型マルチカメラ協調システムを提案する。
提案手法では,各カメラをエージェントとみなし,マルチエージェント強化学習ソリューションを用いてAMOTに対処する。
本システムでは,ベースライン法を8.9%上回る71.88%のカバレッジを実現している。
- 参考スコア(独自算出の注目度): 114.16306938870055
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Active Multi-Object Tracking (AMOT) is a task where cameras are controlled by
a centralized system to adjust their poses automatically and collaboratively so
as to maximize the coverage of targets in their shared visual field. In AMOT,
each camera only receives partial information from its observation, which may
mislead cameras to take locally optimal action. Besides, the global goal, i.e.,
maximum coverage of objects, is hard to be directly optimized. To address the
above issues, we propose a coordinate-aligned multi-camera collaboration system
for AMOT. In our approach, we regard each camera as an agent and address AMOT
with a multi-agent reinforcement learning solution. To represent the
observation of each agent, we first identify the targets in the camera view
with an image detector, and then align the coordinates of the targets in 3D
environment. We define the reward of each agent based on both global coverage
as well as four individual reward terms. The action policy of the agents is
derived with a value-based Q-network. To the best of our knowledge, we are the
first to study the AMOT task. To train and evaluate the efficacy of our system,
we build a virtual yet credible 3D environment, named "Soccer Court", to mimic
the real-world AMOT scenario. The experimental results show that our system
achieves a coverage of 71.88%, outperforming the baseline method by 8.9%.
- Abstract(参考訳): アクティブ・マルチオブジェクトトラッキング(英: Active Multi-Object Tracking, AMOT)とは、カメラを集中型システムによって制御し、自動的かつ協調的にポーズを調整するタスクである。
AMOTでは、各カメラはその観測から部分的な情報のみを受け取り、カメラが局所的に最適な行動を取ることを誤解させる可能性がある。
さらに、グローバルな目標、すなわちオブジェクトの最大カバレッジは、直接最適化されることは困難です。
上記の課題に対処するため,AMOTのための協調型マルチカメラコラボレーションシステムを提案する。
提案手法では,各カメラをエージェントとみなし,マルチエージェント強化学習ソリューションを用いてAMOTに対処する。
各エージェントの観察を表現するために,まずカメラビュー内のターゲットを画像検出器で識別し,次に3d環境でターゲットの座標を調整する。
我々は,グローバルカバレッジと4つの個人報酬条件に基づいて,各エージェントの報酬を定義する。
エージェントのアクションポリシーは、値ベースのqネットワークで導出される。
私たちの知る限りでは、AMOTタスクを最初に研究しています。
システムの有効性を訓練し,評価するために,現実のAMOTシナリオを模倣した仮想的で信頼性の高い3D環境「Soccer Court」を構築した。
実験の結果,本システムは71.88%のカバレッジを達成し,ベースライン法を8.9%上回った。
関連論文リスト
- PoIFusion: Multi-Modal 3D Object Detection via Fusion at Points of Interest [65.48057241587398]
PoIFusionは、関心点(PoIs)におけるRGBイメージとLiDARポイントクラウドに関する情報を融合するフレームワークである。
提案手法は,各モダリティの視点を維持し,計算にやさしいプロジェクションと計算によってマルチモーダル特徴を得る。
我々はnuScenesとArgoverse2データセットについて広範囲に実験を行い、我々のアプローチを評価した。
論文 参考訳(メタデータ) (2024-03-14T09:28:12Z) - Collaboration Helps Camera Overtake LiDAR in 3D Detection [49.58433319402405]
カメラのみの3D検出は、LiDARベースの検出システムと比較して、オブジェクトを3D空間にローカライズするための簡単なソリューションを提供する。
提案するコラボレーティブカメラのみの3D検出(CoCa3D)により,エージェントは通信を通じて相互に補完情報を共有できる。
その結果、CoCa3Dは従来のSOTA性能をDAIR-V2Xで44.21%改善し、OPV2V+で30.60%、AP@70でCoPerception-UAVs+で12.59%向上した。
論文 参考訳(メタデータ) (2023-03-23T03:50:41Z) - Multi-Camera Multi-Object Tracking on the Move via Single-Stage Global
Association Approach [23.960847268459293]
この研究は、複数カメラから1つ以上の検出を追跡対象に関連付けるための、新しいシングルステージグローバルアソシエーション追跡手法を導入する。
また,本モデルでは,nuScenes検出課題において,標準的な視覚に基づく3次元物体検出器の検出精度も向上した。
論文 参考訳(メタデータ) (2022-11-17T17:03:24Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Multi-Target Active Object Tracking with Monte Carlo Tree Search and
Target Motion Modeling [126.26121580486289]
本研究は,マルチターゲットアクティブオブジェクトトラッキング(AOT)に重点を置いており,複数のターゲットと環境に複数のカメラが配置されている。
目標は、全カメラの全体的な対象範囲を最大化することです。
スポーツゲームをシミュレートするマルチターゲット2D環境を構築し,本手法が対象範囲を効果的に改善できることを示す実験結果を得た。
論文 参考訳(メタデータ) (2022-05-07T05:08:15Z) - Object Manipulation via Visual Target Localization [64.05939029132394]
オブジェクトを操作するための訓練エージェントは、多くの課題を提起します。
本研究では,対象物体を探索する環境を探索し,位置が特定されると3次元座標を計算し,対象物が見えない場合でも3次元位置を推定する手法を提案する。
評価の結果,同じ感覚スイートにアクセス可能なモデルに比べて,成功率が3倍に向上したことが示された。
論文 参考訳(メタデータ) (2022-03-15T17:59:01Z) - Pose-Assisted Multi-Camera Collaboration for Active Object Tracking [42.57706021569103]
アクティブオブジェクト追跡(AOT)は、モバイルロボット、インテリジェント監視など、多くのビジョンベースのアプリケーションに不可欠である。
本稿では,単一カメラのAOTをマルチカメラ環境に拡張し,カメラが目標を協調的に追跡する手法を提案する。
本稿では,カメラが物体追跡のためのカメラのポーズを共有することによって,他者との協調を可能にする,Pose-Assisted Multi-Camera Collaboration Systemを提案する。
論文 参考訳(メタデータ) (2020-01-15T07:49:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。