論文の概要: Image-to-Video Re-Identification via Mutual Discriminative Knowledge
Transfer
- arxiv url: http://arxiv.org/abs/2201.08887v1
- Date: Fri, 21 Jan 2022 21:04:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-29 09:34:50.881765
- Title: Image-to-Video Re-Identification via Mutual Discriminative Knowledge
Transfer
- Title(参考訳): 相互識別的知識伝達による画像間再認識
- Authors: Pichao Wang and Fan Wang and Hao Li
- Abstract要約: 画像とビデオの表現のギャップは、画像からビデオへの再識別(I2V Re-ID)を難しくする。
画像ベース表現により効果的に動画ベースのリッチ表現を転送するための相互識別的知識蒸留フレームワークを提案する。
- 参考スコア(独自算出の注目度): 23.58451803257377
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The gap in representations between image and video makes Image-to-Video
Re-identification (I2V Re-ID) challenging, and recent works formulate this
problem as a knowledge distillation (KD) process. In this paper, we propose a
mutual discriminative knowledge distillation framework to transfer a
video-based richer representation to an image based representation more
effectively. Specifically, we propose the triplet contrast loss (TCL), a novel
loss designed for KD. During the KD process, the TCL loss transfers the local
structure, exploits the higher order information, and mitigates the
misalignment of the heterogeneous output of teacher and student networks.
Compared with other losses for KD, the proposed TCL loss selectively transfers
the local discriminative features from teacher to student, making it effective
in the ReID. Besides the TCL loss, we adopt mutual learning to regularize both
the teacher and student networks training. Extensive experiments demonstrate
the effectiveness of our method on the MARS, DukeMTMC-VideoReID and VeRi-776
benchmarks.
- Abstract(参考訳): 画像とビデオの表現のギャップは、画像からビデオへの再識別(I2V Re-ID)を難しくし、近年の研究では知識蒸留(KD)プロセスとしてこの問題を定式化している。
本稿では,映像ベースのリッチ表現をより効果的に画像ベースの表現に転送するための相互識別的知識蒸留フレームワークを提案する。
具体的には、KD用に設計された新規な損失であるトリプルトコントラスト損失(TCL)を提案する。
KDプロセス中、TCL損失は局所構造を転送し、高次情報を活用し、教師と学生のネットワークの不均一な出力の調整を緩和する。
KDの他の損失と比較して、提案したTCL損失は、教師から生徒への局所的な差別的特徴を選択的に伝達し、ReIDに有効である。
tcl損失の他に,教師と学生のネットワークトレーニングを定期化する相互学習も採用している。
本手法の有効性をMARS, DukeMTMC-VideoReID, VeRi-776ベンチマークで実証した。
関連論文リスト
- DCD: Discriminative and Consistent Representation Distillation [6.24302896438145]
本研究では,大きな教師モデルからより小さな学生モデルへ知識を伝達するための識別・一貫性蒸留(DCD)を提案する。
DCDは、教師と生徒の表現の分布の相違を最小限に抑えるために、一貫性の規則化とともに対照的な損失を生んでいる。
学生モデルが教師の精度を上回りながら,DCDが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2024-07-16T14:53:35Z) - SD-DiT: Unleashing the Power of Self-supervised Discrimination in Diffusion Transformer [102.39050180060913]
拡散変換器(DiT)は画像生成における生成拡散モデルの新たなトレンドとして登場した。
最近のブレークスルーは、画像内文脈学習を追加することで、DiTのトレーニング効率を大幅に改善するマスク戦略によって推進されている。
本研究は,DiTトレーニングを促進するための自己監督的識別知識を新たに開放することで,これらの制約に対処する。
論文 参考訳(メタデータ) (2024-03-25T17:59:35Z) - Impact of a DCT-driven Loss in Attention-based Knowledge-Distillation
for Scene Recognition [64.29650787243443]
本稿では, アクティベーションマップの2次元周波数変換を転送前に提案し, 解析する。
この戦略は、シーン認識などのタスクにおける知識伝達可能性を高める。
我々は、この論文で使われているトレーニングおよび評価フレームワークを、http://www.vpu.eps.uam.es/publications/DCTBasedKDForSceneRecognitionで公開しています。
論文 参考訳(メタデータ) (2022-05-04T11:05:18Z) - EvDistill: Asynchronous Events to End-task Learning via Bidirectional
Reconstruction-guided Cross-modal Knowledge Distillation [61.33010904301476]
イベントカメラは画素ごとの強度変化を感知し、ダイナミックレンジが高く、動きのぼやけが少ない非同期イベントストリームを生成する。
本稿では,bfEvDistillと呼ばれる新しい手法を提案し,未ラベルのイベントデータから学生ネットワークを学習する。
EvDistillは、イベントとAPSフレームのみのKDよりもはるかに優れた結果が得られることを示す。
論文 参考訳(メタデータ) (2021-11-24T08:48:16Z) - Learning an Augmented RGB Representation with Cross-Modal Knowledge
Distillation for Action Detection [7.616556723260849]
アクション検出は、アクションを分類するだけでなく、未トリミングビデオでそれらをローカライズする必要がある。
本稿では,2段階の蒸留によるクロスモーダルな知識蒸留フレームワークを提案する。
提案するフレームワークは汎用的であり, 動作検出タスクにおいて他の一般的なクロスモーダル蒸留法より優れている。
論文 参考訳(メタデータ) (2021-08-08T12:04:14Z) - Wasserstein Contrastive Representation Distillation [114.24609306495456]
We propose Wasserstein Contrastive Representation Distillation (WCoRD) which leverages both primal and dual form of Wasserstein distance for knowledge distillation。
二重形式はグローバルな知識伝達に使用され、教師と学生のネットワーク間の相互情報の低い境界を最大化する対照的な学習目標をもたらします。
実験では、提案されたWCoRD法が特権情報蒸留、モデル圧縮およびクロスモーダル転送における最先端のアプローチを上回ることを実証した。
論文 参考訳(メタデータ) (2020-12-15T23:43:28Z) - Fully Unsupervised Person Re-identification viaSelective Contrastive
Learning [58.5284246878277]
人物再識別(ReID)は、様々なカメラが捉えた画像の中から同一人物を検索することを目的としている。
教師なし特徴学習のための新しい選択型コントラスト学習フレームワークを提案する。
その結果,教師なしのReIDにおける手法の優位性について,最先端技術と比較した。
論文 参考訳(メタデータ) (2020-10-15T09:09:23Z) - Robust Re-Identification by Multiple Views Knowledge Distillation [17.72422869639206]
我々は,対象対象を描写した一連の視点から,優れた知識を伝達する訓練戦略を考案する。
本提案では,教師が学習する枠組みの中で,視覚的多様性を指導信号として活用することを提案する。
その結果、学生は教師だけでなく、イメージ・トゥ・ビデオにおける現在の最先端の成績も大きな差で上回っている。
論文 参考訳(メタデータ) (2020-07-08T15:04:41Z) - Knowledge Distillation Meets Self-Supervision [109.6400639148393]
知識蒸留では、教師ネットワークから「暗黒の知識」を抽出し、学生ネットワークの学習を指導する。
一見異なる自己超越的なタスクが、単純だが強力なソリューションとして機能することを示します。
これらの自己超越信号の類似性を補助的タスクとして活用することにより、隠された情報を教師から生徒に効果的に転送することができる。
論文 参考訳(メタデータ) (2020-06-12T12:18:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。