論文の概要: Learning Person Re-identification Models from Videos with Weak
Supervision
- arxiv url: http://arxiv.org/abs/2007.10631v1
- Date: Tue, 21 Jul 2020 07:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 04:57:32.993744
- Title: Learning Person Re-identification Models from Videos with Weak
Supervision
- Title(参考訳): 弱視映像からの人物再同定モデルの学習
- Authors: Xueping Wang, Sujoy Paul, Dripta S. Raychaudhuri, Min Liu, Yaonan Wang
and Amit K. Roy-Chowdhury, Fellow, IEEE
- Abstract要約: 本稿では、監督の弱いビデオから人物再識別モデルを学ぶ問題について紹介する。
このようなビデオレベルラベルを用いた人物再識別のための多段階注意学習フレームワークを提案する。
注意重みは、ビデオ中の人物追跡レットではなく、すべての人物画像に基づいて得られるため、学習したモデルはノイズの多いアノテーションの影響を受けにくくなる。
- 参考スコア(独自算出の注目度): 53.53606308822736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most person re-identification methods, being supervised techniques, suffer
from the burden of massive annotation requirement. Unsupervised methods
overcome this need for labeled data, but perform poorly compared to the
supervised alternatives. In order to cope with this issue, we introduce the
problem of learning person re-identification models from videos with weak
supervision. The weak nature of the supervision arises from the requirement of
video-level labels, i.e. person identities who appear in the video, in contrast
to the more precise framelevel annotations. Towards this goal, we propose a
multiple instance attention learning framework for person re-identification
using such video-level labels. Specifically, we first cast the video person
re-identification task into a multiple instance learning setting, in which
person images in a video are collected into a bag. The relations between videos
with similar labels can be utilized to identify persons, on top of that, we
introduce a co-person attention mechanism which mines the similarity
correlations between videos with person identities in common. The attention
weights are obtained based on all person images instead of person tracklets in
a video, making our learned model less affected by noisy annotations. Extensive
experiments demonstrate the superiority of the proposed method over the related
methods on two weakly labeled person re-identification datasets.
- Abstract(参考訳): ほとんどの人物再識別手法は、監督技術であり、大量のアノテーション要件の負担に苦しむ。
教師なしの手法はラベル付きデータの必要性を克服するが、教師なしの方法と比べて性能は劣る。
この問題に対処するため,本研究では,映像から人物再同定モデルを学ぶことの問題点について紹介する。
監督の弱い性質は、より正確なフレームレベルのアノテーションとは対照的に、ビデオレベルのラベル、すなわちビデオに現れる人物のアイデンティティの必要性から生じる。
この目的に向けて,ビデオレベルラベルを用いた人物再同定のための複数インスタンス注意学習フレームワークを提案する。
具体的には、まず、ビデオ中の人物画像がバッグに収集される複数のインスタンス学習環境に、ビデオ人物の再識別タスクを投入する。
類似ラベルとビデオの関係を利用して人物を識別し,その上に,ビデオと人物の同一性との間の類似性相関関係を抽出する,共同注目機構を導入する。
注意重みはビデオのトラックレットではなく、すべての人物画像に基づいて得られるので、学習したモデルはノイズの多いアノテーションの影響を少なくします。
2つの弱いラベル付き人物再識別データセットにおいて,提案手法が関連する手法よりも優れていることを示す。
関連論文リスト
- Active Learning for Video Classification with Frame Level Queries [13.135234328352885]
ビデオ分類のための新しいアクティブラーニングフレームワークを提案する。
本フレームワークでは,ビデオ毎に一組の映像と,一組の情報フレームを識別する。
これは、ラベルを付けるための完全なビデオを見るよりも、手作業で作業する方がずっと少ない。
論文 参考訳(メタデータ) (2023-07-10T15:47:13Z) - Handling Label Uncertainty for Camera Incremental Person
Re-Identification [17.5026399908583]
人の再識別のためのインクリメンタルラーニング(ReID)は、継続的データストリームでトレーニング可能なモデルを開発することを目的としている。
新しいカメラから収集された新しいデータは、おそらくこれまで見たことのない量のIDを含んでいるかもしれない。
クラス重複問題に対処する新しいフレームワークExtendedOVAを提案する。
論文 参考訳(メタデータ) (2022-10-17T02:59:54Z) - CGUA: Context-Guided and Unpaired-Assisted Weakly Supervised Person
Search [54.106662998673514]
本稿では,コンテキストガイドとアンペア支援(CGUA)を弱教師付き人物検索フレームワークとして導入する。
具体的には、クラスタリングプロセスにおけるコンテキスト情報を活用する新しいコンテキストガイドクラスタ(CGC)アルゴリズムを提案する。
本手法は,より多様なラベル付きデータを活用することにより,最先端の教師付き手法に匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-27T13:57:30Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Camera-aware Proxies for Unsupervised Person Re-Identification [60.26031011794513]
本稿では、アノテーションを必要としない純粋に教師なしの人物識別(Re-ID)問題に取り組む。
各クラスタを複数のプロキシに分割し、それぞれのプロキシが同じカメラからのインスタンスを表すことを提案する。
カメラ認識プロキシに基づいて、カメラ内およびカメラ間コントラスト学習コンポーネントをre-idモデル用に設計する。
論文 参考訳(メタデータ) (2020-12-19T12:37:04Z) - Exploiting Temporal Coherence for Self-Supervised One-shot Video
Re-identification [44.9767103065442]
ワンショット再識別は、このラベル付けの労力を減らすための潜在的候補である。
現在のワンショット再識別法はラベル付きデータとラベルなしデータの相互関係をモデル化することによって機能する。
本稿では,時間的コヒーレンスを自己指導型補助課題として活用する,時間的一貫性向上学習という新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-07-21T19:49:06Z) - CycAs: Self-supervised Cycle Association for Learning Re-identifiable
Descriptions [61.724894233252414]
本稿では,人物再識別(re-ID)問題に対する自己教師型学習手法を提案する。
既存の教師なしのメソッドは通常、ビデオトラッカーやクラスタリングのような擬似ラベルに依存している。
疑似ラベルを使わずに、生のビデオから歩行者の埋め込みを学習できる別の教師なし手法を導入する。
論文 参考訳(メタデータ) (2020-07-15T09:52:35Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。