論文の概要: Spatio-Visual Fusion-Based Person Re-Identification for Overhead Fisheye
Images
- arxiv url: http://arxiv.org/abs/2212.11477v2
- Date: Tue, 25 Apr 2023 20:16:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-27 17:47:34.223668
- Title: Spatio-Visual Fusion-Based Person Re-Identification for Overhead Fisheye
Images
- Title(参考訳): 魚眼画像の空間的統合に基づく人物再同定
- Authors: Mertcan Cokbas, Prakash Ishwar, Janusz Konrad
- Abstract要約: 個人再識別(PRID)は、典型的な監視シナリオにおいて徹底的に研究されている。
魚眼PRIDのための多機能フレームワークを提案する。
- 参考スコア(独自算出の注目度): 15.97384647998813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Person re-identification (PRID) has been thoroughly researched in typical
surveillance scenarios where various scenes are monitored by side-mounted,
rectilinear-lens cameras. To date, few methods have been proposed for fisheye
cameras mounted overhead and their performance is lacking. In order to close
this performance gap, we propose a multi-feature framework for fisheye PRID
where we combine deep-learning, color-based and location-based features by
means of novel feature fusion. We evaluate the performance of our framework for
various feature combinations on FRIDA, a public fisheye PRID dataset. The
results demonstrate that our multi-feature approach outperforms recent
appearance-based deep-learning methods by almost 18% points and location-based
methods by almost 3% points in matching accuracy. We also demonstrate the
potential application of the proposed PRID framework to people counting in
large, crowded indoor spaces.
- Abstract(参考訳): パーソナライズ再識別(prid)は、様々なシーンをサイドマウントの直線レンズカメラで監視する典型的な監視シナリオで徹底的に研究されている。
これまで魚眼カメラを頭上に搭載する手法は提案されておらず、性能に乏しい。
この性能ギャップを解消するために,魚眼PRIDのための多機能フレームワークを提案する。
魚眼PRIDデータセットであるFRIDAを用いた各種特徴組合せのためのフレームワークの性能評価を行った。
提案手法は,近年の外観に基づくディープラーニング手法を約18%,位置ベース手法を約3%,マッチング精度を約3%向上させた。
また,提案するpridフレームワークを,屋内の大規模密集した空間で数える人々に適用する可能性を示す。
関連論文リスト
- LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - A Simple Baseline for Supervised Surround-view Depth Estimation [25.81521612343612]
本稿では,S3Depthを提案する。
我々はCNNとトランスフォーマー層を組み合わせたグローバル・ローカルな特徴抽出モジュールを用いて表現を豊かにする。
本手法は,既存のDDADおよびnuScenesデータセット上での最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T10:06:19Z) - Compact multi-scale periocular recognition using SAFE features [63.48764893706088]
特徴拡張(SAFE)記述子による対称性評価に基づく眼周囲認識のための新しい手法を提案する。
我々は、スクレラ中心を特徴抽出の単一キーポイントとして使用し、眼のこの点に集中するオブジェクトのようなアイデンティティ特性を強調します。
論文 参考訳(メタデータ) (2022-10-18T11:46:38Z) - FRIDA: Fisheye Re-Identification Dataset with Annotations [14.212874396222261]
頭上の魚眼カメラからの人物の身元確認は新しいもので、ほとんど研究されていない。
アノテーション付きFisheye Re-IDentificationデータセット”には、240k以上のバウンディングボックスアノテーションがあります。
FRIDAは、一般的なリチリニアカメラPRIDデータセットのトレーニングと比較して、mAPの最大11.64%の性能向上を示す。
論文 参考訳(メタデータ) (2022-10-04T13:08:47Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Interactive Multi-scale Fusion of 2D and 3D Features for Multi-object
Tracking [23.130490413184596]
我々は、PointNet++を導入し、ポイントクラウドのマルチスケールのディープ表現を取得し、提案したInteractive Feature Fusionに適応させる。
提案手法は,KITTIベンチマークにおいて,マルチスケールな特徴融合を使わずに優れた性能を実現し,他の手法よりも優れる。
論文 参考訳(メタデータ) (2022-03-30T13:00:27Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - End-to-End Learning Local Multi-view Descriptors for 3D Point Clouds [67.27510166559563]
3Dポイントクラウドのためのローカルなマルチビュー記述子を学習するためのエンドツーエンドフレームワークを提案する。
本手法は,既存の局所記述子を定量的かつ定性的に上回る。
論文 参考訳(メタデータ) (2020-03-12T15:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。