論文の概要: Wide-Baseline Multi-Camera Calibration using Person Re-Identification
- arxiv url: http://arxiv.org/abs/2104.08568v1
- Date: Sat, 17 Apr 2021 15:09:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 13:57:09.430874
- Title: Wide-Baseline Multi-Camera Calibration using Person Re-Identification
- Title(参考訳): 人物再同定を用いたワイドベースラインマルチカメラキャリブレーション
- Authors: Yan Xu, Yu-Jhe Li, Xinshuo Weng, Kris Kitani
- Abstract要約: 本稿では,大規模広ベースシナリオのためのカメラネットワークの3次元ポーズ推定の問題に対処する。
現場の人々を「キーポイント」として扱い、異なるカメラビューに関連付けることは、対応を得るための代替方法である。
本手法ではまず,カメラ間で人間境界ボックスを関連付ける再ID法を用い,境界ボックス対応を点対応に変換する。
- 参考スコア(独自算出の注目度): 27.965850489928457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We address the problem of estimating the 3D pose of a network of cameras for
large-environment wide-baseline scenarios, e.g., cameras for construction
sites, sports stadiums, and public spaces. This task is challenging since
detecting and matching the same 3D keypoint observed from two very different
camera views is difficult, making standard structure-from-motion (SfM)
pipelines inapplicable. In such circumstances, treating people in the scene as
"keypoints" and associating them across different camera views can be an
alternative method for obtaining correspondences. Based on this intuition, we
propose a method that uses ideas from person re-identification (re-ID) for
wide-baseline camera calibration. Our method first employs a re-ID method to
associate human bounding boxes across cameras, then converts bounding box
correspondences to point correspondences, and finally solves for camera pose
using multi-view geometry and bundle adjustment. Since our method does not
require specialized calibration targets except for visible people, it applies
to situations where frequent calibration updates are required. We perform
extensive experiments on datasets captured from scenes of different sizes,
camera settings (indoor and outdoor), and human activities (walking, playing
basketball, construction). Experiment results show that our method achieves
similar performance to standard SfM methods relying on manually labeled point
correspondences.
- Abstract(参考訳): 建設現場のカメラ,スポーツスタジアム,公共空間など,大規模環境の広義のシナリオを対象としたカメラネットワークの3次元ポーズ推定の問題に対処する。
この課題は、2つの異なるカメラビューから観察される同じ3dキーポイントの検出とマッチングが難しいため、標準的なstructure-from-motion(sfm)パイプラインが適用できないため、難しい。
このような状況下では、現場の人々を「キーポイント」として扱い、異なるカメラビューに関連付けることが、対応を得るための代替手段となる。
この直感に基づいて,ワイドベースラインカメラキャリブレーションのための人物再識別(re-ID)のアイデアを利用する手法を提案する。
提案手法では,まずカメラ間の人間境界ボックスの関連付けにre-ID法を用い,次に境界ボックス対応を点対応に変換し,最後に多視点幾何とバンドル調整を用いてカメラポーズの解決を行う。
本手法は,可視者を除いて特別な校正対象を必要としないため,校正更新の頻繁な状況に適用できる。
異なる大きさのシーン、カメラ設定(屋内および屋外)、人間の活動(ウォーキング、バスケットボール、建設)から得られたデータセットに関する広範な実験を行う。
実験結果から,本手法は手動でラベル付けされた点対応に依存する標準SfM法と同等の性能を示した。
関連論文リスト
- Multi-View Person Matching and 3D Pose Estimation with Arbitrary
Uncalibrated Camera Networks [36.49915280876899]
マルチカメラネットワークにおける人物マッチングと人物の3次元ポーズ推定は、カメラが外在的に校正されていない場合、困難である。
既存の取り組みでは、ニューラルネットワークや既知のカメラのトレーニングに大量の3Dデータが必要である。
どちらの情報も必要とせずに2つの課題を解く手法であるPMEを提案する。
論文 参考訳(メタデータ) (2023-12-04T01:28:38Z) - Towards Generalizable Multi-Camera 3D Object Detection via Perspective
Debiasing [28.874014617259935]
マルチカメラ3Dオブジェクト検出(MC3D-Det)は,鳥眼ビュー(BEV)の出現によって注目されている。
本研究では,3次元検出と2次元カメラ平面との整合性を両立させ,一貫した高精度な検出を実現する手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T15:31:28Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Online Marker-free Extrinsic Camera Calibration using Person Keypoint
Detections [25.393382192511716]
本稿では,複数のスマートエッジセンサの外部校正のためのマーカーレスオンライン手法を提案する。
本手法では,固有カメラパラメータを推定し,カメラのポーズの粗い初期推定値でプライマーを推定する。
本手法による校正は,オフライン手法による基準校正よりも低い再投影誤差が得られることを示す。
論文 参考訳(メタデータ) (2022-09-15T15:54:21Z) - Cross-View Cross-Scene Multi-View Crowd Counting [56.83882084112913]
従来,複数カメラを用いて1台のカメラの視野を拡大する手法が提案されてきた。
任意のカメラレイアウトで異なるシーンでトレーニングやテストを行う,クロスビュー・クロスシーン(CVCS)のマルチビュー・クラウドカウント・パラダイムを提案する。
論文 参考訳(メタデータ) (2022-05-03T15:03:44Z) - MonoCInIS: Camera Independent Monocular 3D Object Detection using
Instance Segmentation [55.96577490779591]
大規模で異質なトレーニングデータを活用するためには、"カメラ独立"の度合いが必要である。
大規模で異質なトレーニングデータの恩恵を受けるためには、より多くのデータがパフォーマンスを自動で保証するのではなく、"カメラ独立"の度合いを持つ必要がある。
論文 参考訳(メタデータ) (2021-10-01T14:56:37Z) - Cross-Camera Feature Prediction for Intra-Camera Supervised Person
Re-identification across Distant Scenes [70.30052164401178]
人物再識別(Re-ID)は、重複しないカメラビュー間で人物画像をマッチングすることを目的としている。
ICS-DS Re-IDは、カメラ内IDラベル付きクロスカメラアンペアデータを使用してトレーニングを行う。
カメラ横断型自己監視情報マイニングのためのクロスカメラ特徴予測法
グローバルレベルの特徴とローカルレベルの特徴の合同学習は、グローバルなローカルなクロスカメラ特徴予測スキームを形成する。
論文 参考訳(メタデータ) (2021-07-29T11:27:50Z) - SVDistNet: Self-Supervised Near-Field Distance Estimation on Surround
View Fisheye Cameras [30.480562747903186]
シーンジオメトリの360deg認識は、特に駐車場や都市部の運転シナリオで、自動運転に不可欠です。
カメラパラメータを条件入力として用いる,新しいカメラジオメトリー適応型マルチスケール畳み込み法を提案する。
魚眼ウッドキャップサラウンドビューデータセットに対する我々のアプローチを評価し,従来のアプローチよりも大幅に改善した。
論文 参考訳(メタデータ) (2021-04-09T15:20:20Z) - Infrastructure-based Multi-Camera Calibration using Radial Projections [117.22654577367246]
パターンベースのキャリブレーション技術は、カメラの内在を個別にキャリブレーションするために使用することができる。
Infrastucture-based calibration techniqueはSLAMやStructure-from-Motionで事前に構築した3Dマップを用いて外部情報を推定することができる。
本稿では,インフラストラクチャベースのアプローチを用いて,マルチカメラシステムをスクラッチから完全にキャリブレーションすることを提案する。
論文 参考訳(メタデータ) (2020-07-30T09:21:04Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z) - Learning Precise 3D Manipulation from Multiple Uncalibrated Cameras [13.24490469380487]
本稿では,3次元な精密な操作タスクをエンド・ツー・エンドで学習するための効果的なマルチビュー手法を提案する。
提案手法は,ポイントクラウドやボクセルグリッドのような明示的な3D表現を構築することなく,静的に配置された複数のRGBカメラビューを用いて,これらのタスクを達成できることを学習する。
論文 参考訳(メタデータ) (2020-02-21T03:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。