論文の概要: Video-based Person Re-identification without Bells and Whistles
- arxiv url: http://arxiv.org/abs/2105.10678v1
- Date: Sat, 22 May 2021 10:17:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-25 15:17:42.387377
- Title: Video-based Person Re-identification without Bells and Whistles
- Title(参考訳): ベルやホイッスルのないビデオベースの人物再同定
- Authors: Chih-Ting Liu, Jun-Cheng Chen, Chu-Song Chen, Shao-Yi Chien
- Abstract要約: ビデオベースの人物再識別(Re-ID)は、異なるカメラの下で歩行者を特定するために、ビデオトラッカーとトリミングされたビデオフレームをマッチングすることを目的としている。
従来の方法による不完全な検出と追跡の結果から, 収穫したトラックレットの空間的, 時間的不整合が生じている。
本稿では,深層学習に基づくトラックレットの検出と追跡を適用することで,これらの予期せぬノイズを効果的に低減できる簡易な再検出リンク(DL)モジュールを提案する。
- 参考スコア(独自算出の注目度): 49.51670583977911
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video-based person re-identification (Re-ID) aims at matching the video
tracklets with cropped video frames for identifying the pedestrians under
different cameras. However, there exists severe spatial and temporal
misalignment for those cropped tracklets due to the imperfect detection and
tracking results generated with obsolete methods. To address this issue, we
present a simple re-Detect and Link (DL) module which can effectively reduce
those unexpected noise through applying the deep learning-based detection and
tracking on the cropped tracklets. Furthermore, we introduce an improved model
called Coarse-to-Fine Axial-Attention Network (CF-AAN). Based on the typical
Non-local Network, we replace the non-local module with three 1-D
position-sensitive axial attentions, in addition to our proposed coarse-to-fine
structure. With the developed CF-AAN, compared to the original non-local
operation, we can not only significantly reduce the computation cost but also
obtain the state-of-the-art performance (91.3% in rank-1 and 86.5% in mAP) on
the large-scale MARS dataset. Meanwhile, by simply adopting our DL module for
data alignment, to our surprise, several baseline models can achieve better or
comparable results with the current state-of-the-arts. Besides, we discover the
errors not only for the identity labels of tracklets but also for the
evaluation protocol for the test data of MARS. We hope that our work can help
the community for the further development of invariant representation without
the hassle of the spatial and temporal alignment and dataset noise. The code,
corrected labels, evaluation protocol, and the aligned data will be available
at https://github.com/jackie840129/CF-AAN.
- Abstract(参考訳): ビデオベースの人物再識別(Re-ID)は、異なるカメラの下で歩行者を特定するために、ビデオトラッカーとトリミングされたビデオフレームをマッチングすることを目的としている。
しかし, 従来の手法による不完全な検出と追跡の結果が原因で, 刈り取られたトラックレットの空間的, 時間的ずれが生じている。
この問題に対処するために,学習に基づくトラックレットの検出と追跡を行うことで,予期せぬノイズを効果的に低減できる簡易な再検出リンク(dl)モジュールを提案する。
さらに, 粗粒軸結合網 (cf-aan) と呼ばれる改良モデルを提案する。
典型的な非局所ネットワークに基づいて、提案した粗粒構造に加えて、非局所モジュールを3つの1次元位置感応軸アテンションで置き換える。
CF-AANの開発により、従来の非局所演算と比較して計算コストを大幅に削減できるだけでなく、大規模MARSデータセット上での最先端性能(ランク1で91.3%、mAPで86.5%)を得ることができる。
一方、データアライメントにdlモジュールを単に採用することで、いくつかのベースラインモデルが現在の最先端と同等の結果を得ることができるのです。
さらに、トラックレットの識別ラベルだけでなく、火星の試験データの評価プロトコルについてもエラーを発見しました。
我々は,空間的・時間的アライメントやデータセットノイズのハードルを伴わずに,不変表現のさらなる発展を支援することができることを願っている。
コード、修正ラベル、評価プロトコル、アライメントされたデータはhttps://github.com/jackie840129/cf-aanで入手できる。
関連論文リスト
- An accurate detection is not all you need to combat label noise in web-noisy datasets [23.020126612431746]
分離した超平面の直接推定により,OOD試料の正確な検出が可能であることを示す。
本稿では,線形分離を用いた雑音検出とSOTA(State-of-the-art-the-loss)アプローチを交互に行うハイブリッドソリューションを提案する。
論文 参考訳(メタデータ) (2024-07-08T00:21:42Z) - Unleashing the Potential of Tracklets for Unsupervised Video Person Re-Identification [40.83058938096914]
本稿では、教師なしの映像人物の再識別を促進するためのSSR-C(Self-Supervised Refined Clustering)フレームワークを提案する。
教師なしビデオ人物再同定のためのSSR-Cは最先端の教師付き手法に匹敵する結果が得られる。
論文 参考訳(メタデータ) (2024-06-20T12:30:12Z) - Camera Alignment and Weighted Contrastive Learning for Domain Adaptation
in Video Person ReID [17.90248359024435]
人物再識別システム(ReID)は、大規模な完全ラベル画像データセットでトレーニングした場合、高い精度を達成することができる。
様々な運用状況(例えば、カメラの視点や照明など)に関連したドメインシフトは、パフォーマンスの大幅な低下に繋がる可能性がある。
本稿では、ビデオベースのReIDのための教師なしドメイン適応(UDA)に焦点を当てる。
論文 参考訳(メタデータ) (2022-11-07T15:32:56Z) - A Free Lunch to Person Re-identification: Learning from Automatically
Generated Noisy Tracklets [52.30547023041587]
非教師付きビデオベース再識別(re-ID)手法は、re-IDデータセットのアノテートに必要な高コストの問題を解決するために提案されている。
しかし、彼らのパフォーマンスは監督対象よりもはるかに低い。
本稿では,自動生成人追跡装置から再IDモデルを学習することで,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-04-02T16:18:13Z) - Attentive Prototypes for Source-free Unsupervised Domain Adaptive 3D
Object Detection [85.11649974840758]
3Dオブジェクト検出ネットワークは、トレーニングされたデータに対してバイアスを受ける傾向がある。
そこで本研究では,ライダーを用いた3次元物体検出器のソースレス・教師なし領域適応のための単一フレーム手法を提案する。
論文 参考訳(メタデータ) (2021-11-30T18:42:42Z) - Learning to segment from misaligned and partial labels [0.0]
アーバン以外の多くの設定は、正確なセグメンテーションに必要な基盤構造を欠いている。
OpenStreetMaps (OSM)のようなオープンソースのインフラストラクチャアノテーションがこの問題を代表している。
本稿では,不整合アノテーションと欠落アノテーションを付与した画素画像分割を改良した,新規で一般化可能な2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-27T06:02:58Z) - Detection in Crowded Scenes: One Proposal, Multiple Predictions [79.28850977968833]
混み合ったシーンにおける高過度なインスタンスを検出することを目的とした,提案手法によるオブジェクト検出手法を提案する。
このアプローチの鍵は、各提案が以前の提案ベースのフレームワークの1つではなく、関連したインスタンスのセットを予測できるようにすることです。
我々の検出器は、CrowdHumanデータセットの挑戦に対して4.9%のAPゲインを得ることができ、CityPersonsデータセットでは1.0%$textMR-2$の改善がある。
論文 参考訳(メタデータ) (2020-03-20T09:48:53Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z) - Solving Missing-Annotation Object Detection with Background
Recalibration Loss [49.42997894751021]
本稿では,新しい,かつ困難な検出シナリオに焦点を当てる。 真のオブジェクト/インスタンスの大部分は,データセットにラベル付けされていない。
従来, ソフトサンプリングを用いて, 正の例と重なり合うRoIsの勾配を再重み付けする手法が提案されてきた。
本稿では、予め定義されたIoU閾値と入力画像に基づいて損失信号を自動的に校正できる、バックグラウンド校正損失(BRL)と呼ばれる優れた解を提案する。
論文 参考訳(メタデータ) (2020-02-12T23:11:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。