論文の概要: Clique: Spatiotemporal Object Re-identification at the City Scale
- arxiv url: http://arxiv.org/abs/2012.09329v1
- Date: Thu, 17 Dec 2020 00:05:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-02 07:18:08.700076
- Title: Clique: Spatiotemporal Object Re-identification at the City Scale
- Title(参考訳): Clique: 都市規模における時空間物体の再同定
- Authors: Tiantu Xu, Kaiwen Shen, Yang Fu, Humphrey Shi, Felix Xiaozhu Lin
- Abstract要約: 2つの新しい技術に基づいた実用的なReIDエンジンであるCliqueを紹介します。
Cliqueは、ReIDアルゴリズムで抽出されたファジィオブジェクトの特徴をクラスタリングして、ターゲット発生を評価します。
Cliqueは70のクエリで0.87(リコール5)に達し、高い精度で830倍の動画をリアルタイムで実行した。
- 参考スコア(独自算出の注目度): 5.742537343413236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Object re-identification (ReID) is a key application of city-scale cameras.
While classic ReID tasks are often considered as image retrieval, we treat them
as spatiotemporal queries for locations and times in which the target object
appeared. Spatiotemporal reID is challenged by the accuracy limitation in
computer vision algorithms and the colossal videos from city cameras. We
present Clique, a practical ReID engine that builds upon two new techniques:
(1) Clique assesses target occurrences by clustering fuzzy object features
extracted by ReID algorithms, with each cluster representing the general
impression of a distinct object to be matched against the input; (2) to search
in videos, Clique samples cameras to maximize the spatiotemporal coverage and
incrementally adds cameras for processing on demand. Through evaluation on 25
hours of videos from 25 cameras, Clique reached a high accuracy of 0.87 (recall
at 5) across 70 queries and runs at 830x of video realtime in achieving high
accuracy.
- Abstract(参考訳): オブジェクト再識別(ReID)は都市規模のカメラのキーとなる応用である。
古典的なreidタスクは画像検索と見なされることが多いが、対象オブジェクトが現れる場所と時間についての時空間クエリとして扱う。
時空間レイドは、コンピュータビジョンアルゴリズムと都市カメラからのコロッサルビデオの精度の限界に挑戦されている。
Clique は,(1) ReID アルゴリズムによって抽出されたファジィオブジェクトの特徴をクラスタリングすることで,ターゲット発生を判定する実用的 ReID エンジンであり,各クラスタは,入力にマッチする別物体の一般的な印象を表す。(2) ビデオで検索するために,Clique は時空間のカバレッジを最大化し,必要に応じてカメラを段階的に追加する。
25台のカメラから25時間のビデオを評価することで、Cliqueは70のクエリで0.87(リコールは5)に達し、高い精度で830倍の動画をリアルタイムに実行した。
関連論文リスト
- KRONC: Keypoint-based Robust Camera Optimization for 3D Car Reconstruction [58.04846444985808]
KRONCは、オブジェクトに関する事前知識を活用して、セマンティックキーポイントを通してその表現を再構築することで、ビューポーズを推論する新しいアプローチである。
車両シーンに焦点を当てたKRONCは、キーポイントのバックプロジェクションを特異点に収束させることを目的とした光最適化問題の解として、ビューの位置を推定することができる。
論文 参考訳(メタデータ) (2024-09-09T08:08:05Z) - Rethinking Image-to-Video Adaptation: An Object-centric Perspective [61.833533295978484]
本稿では,オブジェクト中心の視点から,画像から映像への適応戦略を提案する。
人間の知覚に触発されて、物体発見のプロキシタスクを画像-映像間移動学習に統合する。
論文 参考訳(メタデータ) (2024-07-09T13:58:10Z) - Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Identity-Consistent Aggregation for Video Object Detection [21.295859014601334]
ビデオオブジェクト検出(VID)では、ビデオからのリッチな時間的コンテキストを活用して、各フレーム内のオブジェクト表現を強化するのが一般的である。
ClipVID(ClipVID)は,微粒化と恒常性を考慮した時間的コンテキストのマイニングに特化して設計されたID一貫性アグリゲーション層を備えたVIDモデルである。
ImageNet VIDデータセット上でのSOTA(State-of-the-art)性能(84.7% mAP)は,従来のSOTAよりも約7倍高速(39.3 fps)で動作している。
論文 参考訳(メタデータ) (2023-08-15T12:30:22Z) - CVLNet: Cross-View Semantic Correspondence Learning for Video-based
Camera Localization [89.69214577915959]
本稿では,クロスビューカメラのローカライゼーション問題に対処する。
本稿では、類似性マッチングの前に、問合せカメラの衛星画像に対する相対変位を推定する。
実験は、単一の画像に基づく位置決めよりもビデオベースの位置決めの有効性を実証した。
論文 参考訳(メタデータ) (2022-08-07T07:35:17Z) - Introduction of a tree-based technique for efficient and real-time label
retrieval in the object tracking system [1.6099403809839035]
本稿では,大規模ビデオ監視システムにおける移動物体のリアルタイム追跡品質の問題に対処する。
本稿では,複数のオブジェクトを自動的にラベル付けして,インデックス化機構を用いた効率的なリアルタイムトラッキングを実現する手法を提案する。
論文 参考訳(メタデータ) (2022-05-31T00:13:53Z) - E^2TAD: An Energy-Efficient Tracking-based Action Detector [78.90585878925545]
本稿では,事前定義されたキーアクションを高精度かつ効率的にローカライズするためのトラッキングベースソリューションを提案する。
UAV-Video Track of 2021 Low-Power Computer Vision Challenge (LPCVC)で優勝した。
論文 参考訳(メタデータ) (2022-04-09T07:52:11Z) - Recent Trends in 2D Object Detection and Applications in Video Event
Recognition [0.76146285961466]
物体検出における先駆的な研究について論じるとともに,近年のディープラーニングを活用したブレークスルーも取り上げている。
本稿では、画像とビデオの両方で2次元物体検出のための最近のデータセットを強調し、様々な最先端物体検出技術の比較性能の概要を示す。
論文 参考訳(メタデータ) (2022-02-07T14:15:11Z) - A Fast Location Algorithm for Very Sparse Point Clouds Based on Object
Detection [0.0]
特徴点の少ない状況下で,画像オブジェクト検出によって対象物を素早く検出するアルゴリズムを提案する。
スマートフォンを持って手動で設計したシーンで実験を行い,提案手法の高精度な位置決め速度と精度を示す。
論文 参考訳(メタデータ) (2021-10-21T05:17:48Z) - ASOD60K: Audio-Induced Salient Object Detection in Panoramic Videos [79.05486554647918]
本研究では,パノラマビデオから有能な物体を分離する新しいタスクであるPV-SODを提案する。
既存の固定レベルやオブジェクトレベルの塩分濃度検出タスクとは対照的に,多モードの塩分濃度検出(SOD)に焦点を当てる。
AsOD60Kという,6レベル階層の4K解像度ビデオフレームを含む,最初の大規模データセットを収集する。
論文 参考訳(メタデータ) (2021-07-24T15:14:20Z) - Plug & Play Convolutional Regression Tracker for Video Object Detection [37.47222104272429]
ビデオオブジェクト検出ターゲットは、オブジェクトのバウンディングボックスを同時にローカライズし、所定のビデオ内のクラスを識別する。
ビデオオブジェクト検出の課題のひとつは、ビデオ全体にわたるすべてのオブジェクトを一貫して検出することだ。
ビデオオブジェクト検出タスクのためのPlug & Playスケール適応型畳み込みレグレッショントラッカーを提案する。
論文 参考訳(メタデータ) (2020-03-02T15:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。