論文の概要: Spatio-Visual Fusion-Based Person Re-Identification for Overhead Fisheye
Images
- arxiv url: http://arxiv.org/abs/2212.11477v1
- Date: Thu, 22 Dec 2022 04:21:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 14:46:16.109132
- Title: Spatio-Visual Fusion-Based Person Re-Identification for Overhead Fisheye
Images
- Title(参考訳): 魚眼画像の空間的統合に基づく人物再同定
- Authors: Mertcan Cokbas, Prakash Ishwar, Janusz Konrad
- Abstract要約: 人物再識別(Person re-identificaiton, PRID)は、カウントの正確性に重要である。
魚眼PRIDのための多機能フレームワークを提案する。
筆者らのフレームワークは、最近の外見に基づくディープラーニング手法を約18%、位置に基づく手法を約3%の精度で上回っている。
- 参考スコア(独自算出の注目度): 15.97384647998813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable and cost-effective counting of people in large indoor spaces is a
significant challenge with many applications. An emerging approach is to deploy
multiple fisheye cameras mounted overhead to monitor the whole space. However,
due to the overlapping fields of view, person re-identificaiton (PRID) is
critical for the accuracy of counting. While PRID has been thoroughly
researched for traditional rectilinear cameras, few methods have been proposed
for fisheye cameras and their performance is comparatively lower. To close this
performance gap, we propose a multi-feature framework for fisheye PRID where we
combine deep-learning, color-based and location-based features by means of
novel feature fusion. We evaluate the performance of our framework for various
feature combinations on FRIDA, a public fisheye PRID dataset. The results
demonstrate that our multi-feature approach outperforms recent appearance-based
deep-learning methods by almost 18% points and location-based methods by almost
3% points in accuracy.
- Abstract(参考訳): 大きな屋内空間にいる人々の信頼性と費用対効果は、多くのアプリケーションにとって大きな課題である。
新たなアプローチは、複数の魚眼カメラを頭上に設置して空間全体を監視することだ。
しかし、重なり合う視野のため、人の再識別性(prid)はカウントの正確さに欠かせない。
pridは従来の直線型カメラで徹底的に研究されてきたが、魚眼カメラの手法はほとんど提案されておらず、性能は比較的低い。
この性能ギャップを埋めるために,魚眼PRIDのための多機能フレームワークを提案する。
魚眼PRIDデータセットであるFRIDAを用いた各種特徴組合せのためのフレームワークの性能評価を行った。
その結果,近年の外観に基づく深層学習法では,約18%,位置に基づく手法では約3%の精度で性能が向上した。
関連論文リスト
- LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - A Simple Baseline for Supervised Surround-view Depth Estimation [25.81521612343612]
本稿では,S3Depthを提案する。
我々はCNNとトランスフォーマー層を組み合わせたグローバル・ローカルな特徴抽出モジュールを用いて表現を豊かにする。
本手法は,既存のDDADおよびnuScenesデータセット上での最先端手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T10:06:19Z) - Compact multi-scale periocular recognition using SAFE features [63.48764893706088]
特徴拡張(SAFE)記述子による対称性評価に基づく眼周囲認識のための新しい手法を提案する。
我々は、スクレラ中心を特徴抽出の単一キーポイントとして使用し、眼のこの点に集中するオブジェクトのようなアイデンティティ特性を強調します。
論文 参考訳(メタデータ) (2022-10-18T11:46:38Z) - FRIDA: Fisheye Re-Identification Dataset with Annotations [14.212874396222261]
頭上の魚眼カメラからの人物の身元確認は新しいもので、ほとんど研究されていない。
アノテーション付きFisheye Re-IDentificationデータセット”には、240k以上のバウンディングボックスアノテーションがあります。
FRIDAは、一般的なリチリニアカメラPRIDデータセットのトレーニングと比較して、mAPの最大11.64%の性能向上を示す。
論文 参考訳(メタデータ) (2022-10-04T13:08:47Z) - A Simple Baseline for Multi-Camera 3D Object Detection [94.63944826540491]
周囲のカメラで3Dオブジェクトを検出することは、自動運転にとって有望な方向だ。
マルチカメラオブジェクト検出のための簡易ベースラインであるSimMODを提案する。
我々は, nuScenes の3次元オブジェクト検出ベンチマークにおいて, SimMOD の有効性を示す広範囲な実験を行った。
論文 参考訳(メタデータ) (2022-08-22T03:38:01Z) - Learning Depth from Focus in the Wild [16.27391171541217]
単一焦点スタックからの畳み込みニューラルネットワークによる深度推定を提案する。
本手法では,画像アライメントにおいても,奥行きマップをエンドツーエンドで推定することができる。
提案するネットワークの一般化のために,商用カメラの特徴を現実的に再現するシミュレータを開発した。
論文 参考訳(メタデータ) (2022-07-20T05:23:29Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - Interactive Multi-scale Fusion of 2D and 3D Features for Multi-object
Tracking [23.130490413184596]
我々は、PointNet++を導入し、ポイントクラウドのマルチスケールのディープ表現を取得し、提案したInteractive Feature Fusionに適応させる。
提案手法は,KITTIベンチマークにおいて,マルチスケールな特徴融合を使わずに優れた性能を実現し,他の手法よりも優れる。
論文 参考訳(メタデータ) (2022-03-30T13:00:27Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - Self-supervised Human Detection and Segmentation via Multi-view
Consensus [116.92405645348185]
本稿では,トレーニング中に幾何学的制約を多視点一貫性という形で組み込むマルチカメラフレームワークを提案する。
本手法は,標準ベンチマークから視覚的に外れた画像に対して,最先端の自己監視的人物検出とセグメンテーション技術に勝ることを示す。
論文 参考訳(メタデータ) (2020-12-09T15:47:21Z) - End-to-End Learning Local Multi-view Descriptors for 3D Point Clouds [67.27510166559563]
3Dポイントクラウドのためのローカルなマルチビュー記述子を学習するためのエンドツーエンドフレームワークを提案する。
本手法は,既存の局所記述子を定量的かつ定性的に上回る。
論文 参考訳(メタデータ) (2020-03-12T15:41:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。