論文の概要、ライセンス

# (参考訳) リアルタイム人物再同定における多目的領域適応のための知識蒸留 [全文訳有]

Knowledge Distillation for Multi-Target Domain Adaptation in Real-Time Person Re-Identification ( http://arxiv.org/abs/2205.06237v1 )

ライセンス: CC BY 4.0
F\'elix Remigereau, Djebril Mekhazni, Sajjad Abdoli, Le Thanh Nguyen-Meidine, Rafael M. O. Cruz and Eric Granger(参考訳) 近年のディープラーニングアーキテクチャの成功にもかかわらず、人の再識別(ReID)は、リアルタイムアプリケーションでは難しい問題である。 ソースデータとターゲットビデオデータの間で発生するドメインシフトによって生じるreid精度の低下を制限するために、教師なし単一ターゲットドメイン適応法(stda)が最近提案されている。 人物ReIDデータのマルチモーダルな性質(カメラ視点やキャプチャ条件の違いによる)を考えると、共通のCNNバックボーンをトレーニングして、複数のターゲットドメインにわたるドメインシフトに対処することで、リアルタイムReIDアプリケーションに効率的なソリューションを提供することができる。 マルチターゲットドメイン適応(MTDA)は、ReID文献では広く扱われていないが、単純なアプローチは、異なるターゲットデータセットをブレンドし、共通のCNNをトレーニングするために混合上でSTDAを実行することである。 しかし、このアプローチは、特に、より小さなcnnを訓練するために、ますます多くの異なるターゲットドメインを混ぜ合わせると、一般化が貧弱になる可能性がある。 この問題を軽減するため,リアルタイムのReIDアプリケーションに適した知識蒸留(KD-ReID)に基づく新しいMTDA手法を提案する。 本手法は,特定の対象領域のデータに適応した複数の専門教師cnnから,それぞれを蒸留することにより,対象領域に共通軽量な学生バックボーンcnnを適用する。 特にOSNetのようなコンパクトなCNNバックボーンをトレーニングする場合に,MTDAの最先端手法よりも優れていることを示す。 以上の結果から,我々のフレキシブルMTDAアプローチは,リアルタイムビデオ監視アプリケーションのための費用対効果の高いReIDシステムの設計に有効であることが示唆された。

Despite the recent success of deep learning architectures, person re-identification (ReID) remains a challenging problem in real-word applications. Several unsupervised single-target domain adaptation (STDA) methods have recently been proposed to limit the decline in ReID accuracy caused by the domain shift that typically occurs between source and target video data. Given the multimodal nature of person ReID data (due to variations across camera viewpoints and capture conditions), training a common CNN backbone to address domain shifts across multiple target domains, can provide an efficient solution for real-time ReID applications. Although multi-target domain adaptation (MTDA) has not been widely addressed in the ReID literature, a straightforward approach consists in blending different target datasets, and performing STDA on the mixture to train a common CNN. However, this approach may lead to poor generalization, especially when blending a growing number of distinct target domains to train a smaller CNN. To alleviate this problem, we introduce a new MTDA method based on knowledge distillation (KD-ReID) that is suitable for real-time person ReID applications. Our method adapts a common lightweight student backbone CNN over the target domains by alternatively distilling from multiple specialized teacher CNNs, each one adapted on data from a specific target domain. Extensive experiments conducted on several challenging person ReID datasets indicate that our approach outperforms state-of-art methods for MTDA, including blending methods, particularly when training a compact CNN backbone like OSNet. Results suggest that our flexible MTDA approach can be employed to design cost-effective ReID systems for real-time video surveillance applications.
公開日: Thu, 12 May 2022 17:28:02 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
2 2 0 2 y a M 2 1 2 2 0 2 y a m 2 1 である。 0.52
] V C . s c [ ] 略称はC。 sc [ 0.39
1 v 7 3 2 6 0 1 v 7 3 2 6 0 0.42
. 5 0 2 2 : v i X r a . 5 0 2 2 : v i X r a 0.42
KNOWLEDGE DISTILLATION FOR MULTI-TARGET DOMAIN ADAPTATION IN マルチターゲット領域適応のための知識蒸留 0.37
REAL-TIME PERSON RE-IDENTIFICATION リアルタイムパーソン再識別 0.45
Félix Remigereau, Djebril Mekhazni, Sajjad Abdoli, Le Thanh Nguyen-Meidine, Rafael M. O. Cruz and Eric Granger Félix Remigereau, Djebril Mekhazni, Sajjad Abdoli, Le Thanh Nguyen-Meidine, Rafael M. O. Cruz, Eric Granger 0.48
Laboratoire d’Imagerie, de Vision et d’Intelligence Artificielle (LIVIA) 視覚と知的能力(livia)の労働力 0.32
Dept. of Systems Engineering, École de technologie supérieure, Montreal, Canada カナダ・モントリオール工科大学システム工学科 0.36
ABSTRACT Despite the recent success of deep learning architectures, person re-identification (ReID) remains a challenging problem in real-word applications. ABSTRACT 近年のディープラーニングアーキテクチャの成功にもかかわらず、人の再識別(ReID)は、リアルタイムアプリケーションでは難しい問題である。 0.50
Several unsupervised single-target domain adaptation (STDA) methods have recently been proposed to limit the decline in ReID accuracy caused by the domain shift that typically occurs between source and target video data. ソースデータとターゲットビデオデータの間で発生するドメインシフトによって生じるreid精度の低下を制限するために、教師なし単一ターゲットドメイン適応法(stda)が最近提案されている。 0.70
Given the multimodal nature of person ReID data (due to variations across camera viewpoints and capture conditions), training a common CNN backbone to address domain shifts across multiple target domains, can provide an efficient solution for real-time ReID applications. 人物ReIDデータのマルチモーダルな性質(カメラ視点やキャプチャ条件の違いによる)を考えると、共通のCNNバックボーンをトレーニングして、複数のターゲットドメインにわたるドメインシフトに対処することで、リアルタイムReIDアプリケーションに効率的なソリューションを提供することができる。 0.66
Although multi-target domain adaptation (MTDA) has not been widely addressed in the ReID literature, a straightforward approach consists in blending different target datasets, and performing STDA on the mixture to train a common CNN. マルチターゲットドメイン適応(MTDA)は、ReID文献では広く扱われていないが、単純なアプローチは、異なるターゲットデータセットをブレンドし、共通のCNNをトレーニングするために混合上でSTDAを実行することである。 0.63
However, this approach may lead to poor generalization, especially when blending a growing number of distinct target domains to train a smaller CNN. しかし、このアプローチは、特に、より小さなcnnを訓練するために、ますます多くの異なるターゲットドメインを混ぜ合わせると、一般化が貧弱になる可能性がある。
訳抜け防止モード: しかし、このアプローチは特に一般化が不十分になる可能性がある。 より小さなCNNをトレーニングするために、多くの異なるターゲットドメインをブレンドする。
0.57
To alleviate this problem, we introduce a new MTDA method based on knowledge distillation (KD-ReID) that is suitable for real-time person ReID applications. この問題を軽減するため,リアルタイムのReIDアプリケーションに適した知識蒸留(KD-ReID)に基づく新しいMTDA手法を提案する。 0.83
Our method adapts a common lightweight student backbone CNN over the target domains by alternatively distilling from multiple specialized teacher CNNs, each one adapted on data from a specific target domain. 本手法は,特定の対象領域のデータに適応した複数の専門教師cnnから,それぞれを蒸留することにより,対象領域に共通軽量な学生バックボーンcnnを適用する。
訳抜け防止モード: 本手法は,複数の専門教師cnnを蒸留することにより,共通軽量な学生バックボーンcnnを対象領域に適応させる。 それぞれが特定のターゲットドメインのデータに適合する。
0.69
Extensive experiments1 conducted on several challenging person ReID datasets indicate that our approach outperforms state-of-art methods for MTDA, including blending methods, particularly when training a compact CNN backbone like OSNet. 提案手法がmtdaの最先端手法よりも優れており,特にosnetのようなコンパクトなcnnバックボーンをトレーニングする場合において,ブレンドメソッドを含む。 0.57
Results suggest that our flexible MTDA approach can be employed to design cost-effective ReID systems for real-time video surveillance applications. 以上の結果から,我々のフレキシブルMTDAアプローチは,リアルタイムビデオ監視アプリケーションのための費用対効果の高いReIDシステムの設計に有効であることが示唆された。
訳抜け防止モード: MTDAのフレキシブルアプローチを応用できることが示唆された。 リアルタイムビデオ監視アプリケーションに効率的なReIDシステムを設計する。
0.66
Index Terms— Video Surveillance, Person Re-Identification, インデックス用語 - ビデオ監視、人物の再識別。 0.50
Multi-Target Domain Adaptation, Knowledge Distillation. 多目的ドメイン適応、知識蒸留。 0.60
1. INTRODUCTION Person ReID aims to recognize an individual captured over a set of non-overlapping camera viewpoints. 1.導入 Person ReIDは、重複しないカメラの視点で捉えた個人を認識することを目的としている。 0.65
It is an important function required in many computer vision applications, rang- これは多くのコンピュータビジョンアプリケーションにおいて重要な機能である。 0.76
1GitHub code: https://github.com/f remigereau/MTDA_KD_R EID. 1GitHubコード:https://github.com/ fremigereau/MTDA_KD_ REID。 0.21
ing from sports analytics to video surveillance [1]. スポーツ分析からビデオサーベイランスまで[1]。 0.54
State-ofthe-art approaches for person ReID are typically implemented with a deep learning (DL) model, e g , deep Siamese networks, trained through metric learning to provide global appearance features. ReIDの最先端のアプローチは一般的に、ディープ・ラーニング(DL)モデル、例えばディープ・シームズ・ネットワークで実装され、メトリック・ラーニングを通じて訓練され、グローバルな外観機能を提供する。
訳抜け防止モード: state - ofthe - art approach for person reidは通常、ディープラーニング(dl)モデルで実装される。 例えば、deep siamese networksは、メトリック学習を通じてグローバルな外観機能を提供するように訓練されている。
0.60
CNN backbones are often used to learn an embedding, where similar image pairs (with the same identity) are close to each other, and dissimilar image pairs (with different identities) are distant from each other. CNNバックボーンはしばしば埋め込みを学ぶために使用され、同じイメージペア(同一のアイデンティティを持つ)が互いに近接しており、異なるイメージペア(異なるIDを持つ)が互いに離れている。 0.79
Popular supervised losses include cross-entropy, triplet, and contrastive losses based on positives and negatives pairs in a labeled dataset [2]. 一般的な教師付き損失には、ラベル付きデータセット[2]内の正と負のペアに基づくクロスエントロピー、トリプレット、コントラスト損失が含まれる。 0.56
Despite their success, they remain complex models, and typically require optimizing many parameters using large annotated image datasets. その成功にもかかわらず、それらは複雑なモデルのままであり、通常、大きな注釈付き画像データセットを使用して多くのパラメータを最適化する必要がある。
訳抜け防止モード: 成功しても 複雑なモデルのままで 大きな注釈付き画像データセットを使用して多くのパラメータを最適化する。
0.75
They also suffer from poor generalization in the presence of domain shift, where the distribution of original video data captures from the source domain diverges w.r.t data from the operational target domain. また、ドメインシフトの存在下では、ソースドメインからのオリジナルビデオデータの分布が運用対象ドメインからw.r.tデータを分離する、という一般化に苦しむ。 0.73
Domain shifts are introduced by variations in capture conditions (i.e., pose and illumination), camera settings and viewpoints from which a person is observed, and lead to considerable changes in the distribution of images in different datasets [3, 4]. ドメインシフトは、撮影条件(例えば、ポーズと照明)、カメラの設定、観察される視点の変化によって導入され、異なるデータセットにおける画像の分布に大きな変化をもたらす[3, 4]。 0.79
Given the cost of data annotation, several unsupervised STDA methods have recently been proposed to limit the decline of ReID accuracy caused by domain shift. データアノテーションのコストを考慮すると、最近ドメインシフトによるReID精度の低下を抑制するために、教師なしSTDA法がいくつか提案されている。 0.55
These methods seek to adapt CNNs trained with annotated source video data to perform well in a target domain by leveraging unlabeled data captured from that domain. これらの手法は、アノテートされたソースビデオデータで訓練されたCNNを、そのドメインから取得したラベルなしデータを活用することにより、ターゲットドメインで良好に動作させる。 0.51
To learn a discriminant domaininvariant feature representation from source and target data, STDA methods rely on, e g , discrepancy-based or adversarial approaches [5, 3, 6, 7, 8, 9, 10, 11, 12, 13]. ソースデータとターゲットデータから識別的ドメイン不変特徴表現を学習するために,STDA法は,[5, 3, 6, 7, 8, 10, 11, 12, 13] の差分に基づく,あるいは逆のアプローチに依存する。 0.82
Although MTDA based on unlabeled data from multiple targets is important in many real-world applications, it remains largely unexplored [14]. MTDAは、複数のターゲットからラベル付けされていないデータに基づいていますが、多くの実世界のアプリケーションでは重要です。 0.62
Existing STDA techniques can be extended to MTDA by either adapting multiple models, one for each target domain, or by blending data from the multiple target domains, and then applying STDA on the mixture of target data. 既存のSTDA技術は、ターゲットドメイン毎に複数のモデルを適用するか、複数のターゲットドメインからデータをブレンドし、ターゲットデータにSTDAを適用することでMTDAに拡張することができる。 0.68
For image classification, an adversarial MTDA approach based on blending transfer was recently proposed where all targets are viewed as one domain [15], target-specific representations were concatenated to deploy a common model [16]. 画像分類では, ブレンディングトランスファーに基づく敵対的MTDAアプローチが最近提案され, 全ての対象を1つの領域 [15] とみなし, 目標固有表現を連結して共通のモデル [16] を配置した。 0.82
Nevertheless, these approaches are either too complex it requires one model per target domain, or generalize poorly on distinct target domains, particularly when adapting a smaller しかしながら、これらのアプローチは複雑すぎるか、ターゲットドメイン毎に1つのモデルを必要とするか、あるいは異なるターゲットドメイン、特に小さなドメインに適応する場合に、あまり一般化しない。
訳抜け防止モード: それでも、これらのアプローチは複雑すぎるか、ターゲットドメイン毎に1つのモデルが必要です。 特に小さめの領域に適応する場合は
0.73
英語(論文から抽出)日本語訳スコア
common CNN backbone on a growing number of targets. ターゲット数の増加に対する共通cnnバックボーン。 0.52
In [6], MTDA is performed by distilling information from targetspecific teachers to a student model (deployed for testing), significantly reducing system complexity. 6]では,MTDAは,対象とする教員から学生モデル(試験用)に情報を蒸留することにより,システム複雑性を著しく低減する。 0.82
In person ReID, video cameras in a distributed network may correspond to different target domains (defined by viewpoints and capture conditions), and the CNN backbone should therefore be adapted to generalize well across multiple target domains. 実際のReIDでは、分散ネットワーク内のビデオカメラは異なるターゲットドメインに対応し(視点とキャプチャ条件によって定義される)、CNNバックボーンは複数のターゲットドメインにまたがって適切に適用されるべきである。 0.76
More recently, Tian et al [17] introduced an MTDA method for ReID. 最近では、tian et al [17] が reid の mtda メソッドを導入した。 0.66
Inspired by the importance of intra-domain camera style, they propose a Camera Identity-guided Distribution Consistency method based on distribution consistency and discriminative embedding losses. ドメイン内カメラスタイルの重要性に触発されて,分散一貫性と識別的埋め込み損失に基づく,カメラ識別による分散一貫性手法を提案する。 0.71
The first loss aligns image style of source and targets through a generative approach, while the second predicts the camera for each identity to decrease distances for each individual across cameras. 第1の損失はソースとターゲットの画像スタイルを生成的アプローチで調整し、第2の損失は各idのカメラを予測し、各カメラ間の距離を減少させる。 0.70
However, for real-time person ReID, specialized MTDA techniques are required to train smaller cost-effective CNN backbones that can address domain shifts across multiple data distributions. しかし、リアルタイムのReIDでは、複数のデータ分散にまたがるドメインシフトに対処できるコスト効率の低いCNNバックボーンを訓練するために、特殊なMTDA技術が必要である。 0.64
In this paper, we advocate for MTDA methods based on knowledge distillation (KD) [18, 14] to provide a better trade-off between CNN accuracy and efficiency. 本稿では,知識蒸留(KD) [18, 14] に基づくMTDA手法を提案し,CNNの精度と効率のトレードオフを改善する。 0.77
In this paper, we propose KD-ReID, a cost-effective MTDA method for real-time person ReID applications. 本稿では,リアルタイム人物ReIDアプリケーションのための費用効率のよいMTDA手法であるKD-ReIDを提案する。 0.67
A CNN backbone (teacher) is adapted for each target domain, using an STDA method, and the corresponding unlabeled target dataset. CNNバックボーン(教師)は、STDA法と対応する未ラベルのターゲットデータセットを用いて、各ターゲットドメインに適合する。 0.80
Then, the knowledge learned from all the target-specific teachers is alternatively distilled to a common lightweight CNN backbone (student). そして、対象とする教師全員から学んだ知識を、共通の軽量CNNバックボーン(学生)に蒸留する。 0.60
This paper expands significantly from the KD method in [14], which was proposed for image classification tasks on larger CNNs. 本稿では,大規模CNNの画像分類タスクとして提案した[14]のKD法とは大きく異なる。 0.74
Additionally, KD-ReID differs considerably from a KD method for person ReID that was proposed in [19] for multi-source domain adaptation (MSDA). さらに、KD-ReIDはマルチソースドメイン適応(MSDA)のための[19]で提案された人物ReIDのKD法とは大きく異なる。 0.76
It was applied in a semi-supervised learning scenario and distills knowledge from multiple source models (teachers) to a target model (student) by aligning studentteacher similarity matrices. 半教師付き学習シナリオに適用し,複数の教材モデル(教師)から対象モデル(学生)に知識を蒸留し,教師の類似度行列を調整した。 0.78
The accuracy and complexity of KD-ReID are compared extensively against state-of-the-art MTDA methods on several challenging person ReID datasets. KD-ReIDの精度と複雑さは、いくつかの挑戦的な人物ReIDデータセット上の最先端のMTDA法と比較される。 0.51
2. PROPOSED APPROACH 2.アポロアッチの提案 0.53
1, xt 2, ..., xt 1,xt 2... ... xt 0.36
Let xs ∈ X s be the set of samples from the source domain, and ys ∈ Y be their corresponding labels, where X s is the source domain feature space, and Y is the source label space. xs ∈ X s をソース領域からのサンプルの集合とし、ys ∈ Y を対応するラベルとし、X s はソース領域特徴空間、Y はソース領域特徴空間とする。
訳抜け防止モード: xs ∈ X s をソース領域からのサンプルの集合とする。 そして ys ∈ Y は対応するラベルであり、X s は元領域の特徴空間である。 そして Y はソースラベル空間である。
0.77
Given the target domains feature space X t, let xt = T} ∈ X t be the set of samples for T unlabeled {xt target domain datasets. 対象領域の特徴空間 X t に対し、xt = T} ∈ X t を T の未ラベル {xt の対象領域データセットのサンプル集合とする。 0.75
We define the common CNN backbone as Θ, and a set of target-specific CNN backbones, each one adapted to each target domain, as Φ = {Φ1, Φ2, ..., ΦT}. 我々は、共通のCNNバックボーンを、ターゲット固有のCNNバックボーンの集合として定義し、それぞれがそれぞれのターゲットドメインに適合する。
訳抜け防止モード: 我々は、共通のCNNバックボーンを、ターゲット - 特定のCNNバックボーンのセットとして定義する。 それぞれのドメインがそれぞれのターゲットドメインに適合する。 Φ2 , ... , ΦT } .
0.65
As illustrated in Figure 1 (a), a straightforward MTDA method for adapting a common CNN backbone Θ consists in blending the data xt i of all of the targets for i = 1, 2, ..., T , and then applying a STDA method on the resulting dataset xt. 図1(a)に示すように、共通のCNNのバックボーンを適応するための単純なMTDA法は、i = 1, 2, ..., T のすべてのターゲットのデータ xt i を混合し、結果のデータセット xt にSTDA法を適用する。
訳抜け防止モード: 図1(a)に示すように 共通のCNNバックボーンを適応するための単純なMTDA法は、i = 1 のすべてのターゲットのデータ xt i をブレンドすることで構成される。 2, ..., T, そして結果のデータセット xt に STDA メソッドを適用する。
0.80
(a) (b) Fig. 1. (a) (b) 図1。 0.38
Overview of MTDA methods. (a) Blending: target domain datasets are combined to form a dataset, and the common CNN is adapted using a STDA method. MTDA法の概要 (a)ブレンディング:ターゲットドメインデータセットを結合してデータセットを生成し、共通CNNはSTDA法を用いて適応する。 0.66
(b) KD-ReID (ours): individual teachers are adapted using a STDA method for each target, and knowledge is distilled into the common CNN. (b)KD-ReID(ours):個々の教師がそれぞれの目標に対してSTDA法を用いて適応し、共通CNNに知識を蒸留する。 0.80
We introduce KD-ReID, a MTDA method based on KD that is suitable for real-time person ReID. 本稿では,リアルタイムのReIDに適したKDに基づくMTDA手法であるKD-ReIDを紹介する。 0.62
Our method adapts a common lightweight CNN backbone (student model) Θ to address multiple domain shifts, and perform well over all the target domains. 提案手法は,複数のドメインシフトに対応するために,共通の軽量なCNNバックボーン(学生モデル)に適応し,対象ドメインすべてに対して良好に動作する。 0.66
As illustrated in Figure 1 (b), our proposed method distills knowledge learned by multiple specialized CNN backbones Φi (teacher models), each one adapted on data xt i from a specific target domain, for i = 1, 2, ..., T , using a STDA method. 図1(b)に示すように、提案手法では、特定の対象領域からのデータxt i、例えばi = 1, 2, ..., t に対してstda法を用いて、複数のcnnバックボーン φi (teacher model) で学習した知識を蒸留する。
訳抜け防止モード: 図1(b)に示すように、提案手法は、複数の専門的なCNNバックボーン(教師モデル)によって学習された知識を抽出する。 それぞれが特定のターゲットドメインからのデータ xt i に適合します。 i = 1, 2, ..., T, STDAメソッドを使用する。
0.79
In particular, the KD-ReID method consists of three steps. 特に、KD-ReID法は3つのステップからなる。 0.67
(1) Pre-training on source data: All the CNN backbones (teachers Φi and student Θ models) undergo supervised pre-training on the labeled source domain dataset xs. 1) ソースデータに基づく事前トレーニング: ラベル付きソースドメインデータセットxs上で教師付き事前トレーニングを行うCNNバックボーン(教師 .i と学生 . モデル)すべて。 0.83
This process should provide discriminant networks for person ReID on the source data. このプロセスは、ソースデータ上の人物ReIDのための識別ネットワークを提供する。 0.66
Any appropriate supervised loss functions for metric learning can be applied, including softmax cross-entropy [20], and hard samples mining triplet loss [21]. メトリック学習に適切な教師付き損失関数は、ソフトマックスクロスエントロピー[20]やハードサンプルマイニングトリプレット損失[21]などに適用できる。
訳抜け防止モード: メトリック学習のための適切な教師付き損失関数は適用できる。 例えば、softmax cross - entropy [20 ]、hard sample mining triplet loss [21 ]を含む。
0.73
(2) STDA of teacher CNNs: The teacher models Φi are adapted to their respective target domains using some STDA method with source xs and target xt i datasets, for i = 1, 2, ..., T . 2)教師CNNのSTDA:i = 1, 2, ..., T のソース xs とターゲット xt i データセットを持つ STDA メソッドを用いて,教師モデル .i をそれぞれのターゲットドメインに適応させる。 0.82
Any STDA method can be applied, including the D-MMD [3], and SPCL [22] methods. D-MMD[3]やSPCL[22]メソッドを含む任意のSTDAメソッドを適用することができる。 0.78
(3) KD to student CNN: Knowledge from every teacher model Φi is distilled to the common student model Θ based on target datasets xt i, for i = 1, 2, ..., T , and on the KD loss function, LKD (described below). (3) 学生CNNへのKD: すべての教師モデルからの知識は、目標データセット xt i, for i = 1, 2, ..., T, and on the KD loss function LKD(後述)に基づいて、共通の学生モデルに蒸留される。 0.82
The KD-ReID method is summarized in Algorithm 1. KD-ReID法はアルゴリズム1で要約される。 0.69
Once the set of teacher models Φ are adapted to respective target domains, KD is proposed to progressively integrate their knowledge into the common student model Θ. 教師モデルの集合をそれぞれの対象領域に適応させると、KDは彼らの知識を共通の学生モデルに段階的に統合することを提案する。 0.76
Based on the self-similarity matrices of feature vectors from Φ and Θ, our φ と θ による特徴ベクトルの自己相似性行列に基づく。 0.72
英語(論文から抽出)日本語訳スコア
Algorithm 1 KD-ReID method. アルゴリズム1 KD-ReID法 0.79
Require: labeled source datasets: xs, unlabeled target data: xt = {xt 1) Pre-train teacher models, Φ = {Φ1, Φ2, ..., ΦT}, and student model, Θ, on the source labeled data xs for i = 1, 2, ...T do for each mini-batches Bs ⊂ xs and Bt ⊂ xt 必須事項: ラベル付きソースデータセット: xs, unlabeled target data: xt = {xt 1) 事前トレーニングされた教師モデル φ = { φ1, φ2, ..., φt} と学生モデル θ, on the source labeled data xs for i = 1, 2, ...t do for each mini-batches bs , xs and bt , xt 0.88
2, ..., xt 2... ... xt 0.37
T}, 1, xt t} である。 1,xt 0.46
i do 2) STDA: adapt teacher Φi on source and target data 私は 2)STDA:ソースデータとターゲットデータに基づく教員のi適応 0.74
for each mini-batch Bt ⊂ xt 各ミニバッチ bt , xt について 0.56
i do 3) KD: adapt student Θ using target data and LKD 私は 3)KD: 対象データとLKDを用いた適応型学習者 0.71
end for end for for i = 1, 2, ...T do 終わりだ i = 1, 2, ... の場合の終了 0.65
end for end for proposed KD loss LKD aligns student-teacher representations. 終わりだ 終わりだ 提案したKD損失LKDは生徒と教師の表現を一致させる。 0.53
Let fn = Φi(xn) be the feature vector output from the fully connected layer of Φi in response to sample xn. 標本 xn に応答して fn = .i(xn) を .i の完全連結層から出力される特徴ベクトルとする。 0.82
Consider a feature matrix F = [f1, f2, ..., fN ] ∈ RD×N where N is the batch size and D is the dimension of feature vectors. 特徴行列 F = [f1, f2, ..., fN ] ∈ RD×N を考えると、N はバッチサイズ、D は特徴ベクトルの次元である。 0.79
The self-similarity matrix denoted as A ∈ RN×N is defined as aj,k = (cid:104)fj, fk(cid:105), where (cid:104)·,·(cid:105) is the cosine distance between the feature vectors and fj, fk ∈ F . A ∈ RN×N と表される自己相似行列は aj,k = (cid:104)fj, fk(cid:105), ここで (cid:104)·,·(cid:105) は特徴ベクトルと fj, fk ∈ F の間の余弦距離である。 0.83
Similarity matrices As and At are computed based on student Fs and teacher Ft feature matrices, respectively. 類似度行列AsとAtはそれぞれ、学生Fsと教師Ftの特徴行列に基づいて計算される。 0.71
Our KD loss LKD is then computed as: LKD = ||As − At||F , where ||·,·||F is the Frobenius norm matrix. 我々の KD 損失 LKD は次のように計算される: LKD = ||As − At||F , ここで ||·,·|F はフロベニウスノルム行列である。 0.78
Optimizing Θ parameters with LKD allows the student model to produce a distance matrix aligned to the teacher model. lkd で θ パラメータを最適化することで,教師モデルに沿った距離行列を生成することができる。 0.77
We only apply this loss on target samples xt. この損失はターゲットサンプル xt にのみ適用される。 0.82
It allows tuning Θ parameters, while Φ parameters are fixed. パラメーターをチューニングできるが、パラメーターは固定されている。 0.73
For each mini-batch Bt from a given target domain i, we select only the corresponding teacher model Φi. 対象領域 i からの各ミニバッチ Bt に対して、対応する教師モデル .i のみを選択する。 0.74
The order of targets for KD is selected randomly, and it changes at every epoch. KDのターゲットの順序はランダムに選択され、各エポックごとに変化する。 0.70
An important benefit of the KD-ReID approach is its versatility. KD-ReIDアプローチの重要な利点は、その汎用性である。 0.61
It is independent of the STDA methods used to adapt each Φi. STDA法とは独立であり、それぞれを順応するために用いられる。 0.64
The choice of CNN backbones Φi, and its STDA methods may differ, allowing to select the best configuration to address the specific challenges (i.e., domain shift) faced by each target domain. CNNのバックボーン .i とそのSTDA メソッドの選択は、それぞれのターゲットドメインが直面している特定の課題(すなわちドメインシフト)に対処するための最適な設定を選択することができる。 0.82
Moreover, KD-ReID allows distilling knowledge to a lighter common CNN backbone (student model), making it suitable for real-time applications. さらに、KD-ReIDはより軽量な共通CNNバックボーン(学生モデル)への知識の蒸留を可能にし、リアルタイムアプリケーションに適している。 0.62
3. EXPERIMENTAL RESULTS Datasets: In this paper, we evaluate MTDA methods across datasets, where each dataset is a target domain. 実験結果 データセット: 本論文では,各データセットが対象領域であるデータセット間でMTDAメソッドを評価する。 0.51
Four benchmark datasets are used for person ReID experiments. 個人ReID実験には4つのベンチマークデータセットが使用される。 0.58
CUHK03[23] consists of 13,164 images of 1,467 identities from 5 camera pairs. cuhk03[23]は、5つのカメラペアから1,467個のアイデンティティの13,164枚の画像からなる。 0.48
Market1501 [24] is comprised of a high number of images per identities (32,217 images of 1,501 identities) captured with 6 cameras. Market1501[24]は、6台のカメラで捉えたID当たりの多数の画像(32,217枚、1,501枚)で構成されている。 0.56
Compared to CUHK03, the bounding box annotations in Market1501 are cuhk03と比較して、market1501のバウンディングボックスアノテーションは 0.65
lower quality, and persons captured in each bounding box could be partially represented, which makes for a challenging dataset. 品質が低く、各バウンディングボックスでキャプチャされた人は部分的に表現できるため、難しいデータセットになる。 0.66
DukeMTMC[25] is designed such that each one of the 8 cameras contains unique identities. DukeMTMC[25]は8台のカメラのそれぞれがユニークなIDを持つように設計されている。 0.67
This dataset contains 36,441 images of 1,812 identities, which is similar in size to Market1501 in terms of the number of images and identities. このデータセットには1,812のidの36,441の画像が含まれており、画像数とid数でmarket1501と大きさが似ている。
訳抜け防止モード: このデータセットは、1,812個のアイデンティティの36,441枚の画像を含んでいる。 サイズはMarket1501に似ています。
0.57
Finally, MSMT17 [26] includes video from 15 indoor and outdoor cameras, and consists of 126,441 images of 4,101 identities. 最後に、MSMT17[26]は15台の屋内および屋外カメラのビデオを含み、4,101体の126,441枚の画像で構成されている。 0.48
Considering that videos are captured in indoor/outdoor conditions, during different days, weather conditions, and times of the day, it certainly represents a more challenging and realistic dataset in comparison to other person ReID datasets. ビデオが屋内や屋外の環境で撮影されていることや、異なる日時、天気、日中の時間などを考えると、他の人物のReIDデータセットと比較して、より困難で現実的なデータセットであることは間違いない。
訳抜け防止モード: ビデオは屋内や屋外の環境で撮影される。 天気状況や日中は、他の人物のReIDデータセットと比較して、より困難で現実的なデータセットであることは間違いない。
0.73
MSMT17 is always used as the source dataset to pre-train the CNNs. MSMT17は、常にCNNを事前トレーニングするためのソースデータセットとして使用される。 0.57
Considering the diversity of capture conditions, there is a significant domain shift between samples from these datasets (results not shown in this paper). 捕獲条件の多様性を考慮すると、これらのデータセットからのサンプル間で大きな領域シフトがある(この論文には示されていない)。 0.69
Experimental Setting: Resnet50 [27] is used to implement the target-specific CNN backbones (teachers), while Osnet_x0_25 [28] implements the common CNN backbone (deployed for testing). 実験設定: Resnet50[27]はターゲット固有のCNNバックボーン(教師)の実装に使用され、Osnet_x0_25[28]は共通のCNNバックボーン(テスト用にデプロイ)を実装する。 0.68
A fully connected layer with 2048 neurons is added to each backbone to output feature vectors. 各バックボーンに2048個のニューロンを持つ完全連結層を追加し、特徴ベクトルを出力する。 0.74
The original hyperparameter setup for D-MMD [3] and SPCL [22] STDA techniques are used for our experiments. D-MMD [3] と SPCL [22] STDA のオリジナルのハイパーパラメータ設定を実験に用いた。 0.73
For KD-ReID, the Stochastic Gradient Descent (SGD) optimizer is used with a learning rate of 0.01. KD-ReIDでは、SGD(Stochastic Gradient Descent)オプティマイザが0.01の学習レートで使用される。 0.67
It is divided by 10 after every five epochs. 5つの時代ごとに10つに分けられる。 0.69
A batch size of 64 is used, with 32 samples from the source data, and 32 samples from the target data. バッチサイズは64で、ソースデータから32のサンプル、ターゲットデータから32のサンプルが使用される。
訳抜け防止モード: 64のバッチサイズが使われ、ソースデータから32のサンプルが使用される。 対象データから32個のサンプルを採取しました
0.74
Batches are constructed using groups of four images with the same identity corresponding to tracklets. バッチはトラックレットに対応する同一のアイデンティティを持つ4つのイメージのグループを使用して構築される。 0.60
Training is conducted until the model performance improves by less than 0.5% average mAP over five consecutive epochs. トレーニングは、モデルの性能が5回連続で平均mAPを0.5%以下に改善するまで実施される。 0.74
Results and Discussion: Table 3 compares the performance of the proposed KD-ReID to the baseline methods in terms of mean Average Precision (mAP), rank-1 accuracy, number of parameters, and FLOPs. 結果と考察:表3は提案したKD-ReIDの性能を平均精度(mAP)、ランク1の精度、パラメータ数、FLOPの基準値と比較する。
訳抜け防止モード: 結果と考察 : 表3では,提案したKD-ReIDと平均精度(mAP)の基準値との比較を行った。 rank-1 accuracy , number of parameters , and FLOPs 。
0.83
As expected, the lower-bound accuracy on target datasets is low due to the domain shift between the source and target datasets. 予想通り、ソースとターゲットデータセット間のドメインシフトのため、ターゲットデータセットの低いバウンド精度は低い。 0.68
Blending all the target data, and then applying an STDA method improves accuracy significantly over the lower bound. 対象データを全てブレンディングし、次にSTDA法を適用すると、下限よりも精度が大幅に向上する。
訳抜け防止モード: すべてのターゲットデータをブレンディングし、それから STDAメソッドを適用する 下限よりも精度が大幅に向上する。
0.74
The proposed KD-ReID outperforms the blending methods on all datasets for both D-MMD and SPCL STDA approaches. 提案したKD-ReIDは、D-MMDとSPCL STDAの両方のアプローチにおいて、全てのデータセットのブレンディング方法よりも優れている。 0.47
Although training a single model per target is a straightforward approach that achieves a higher level of accuracy, at the expense of high complexity. ターゲット毎に単一のモデルをトレーニングすることは、高い精度を達成するための直接的なアプローチだが、高い複雑性を犠牲にしている。
訳抜け防止モード: ターゲットごとに1つのモデルをトレーニングするのは 簡単なアプローチですが 高い精度を達成する。 複雑さを犠牲にして。
0.72
As shown in Table 3, the SPCL technique for STDA produces a less accurate teacher model for the CUHK03 dataset than D-MMD. 表3に示すように、STDAのSPCL技術は、D-MMDよりも精度の低いCUHK03データセットの教師モデルを生成する。 0.74
This observation motivates us to select the best STDA technique for each teacher model. この観察は、各教師モデルに最適なSTDA手法を選択する動機となる。 0.76
The highest average performance is obtained when mixing STDA methods to adapt teachers for KD-ReID, highlighting its versatility. 最も高い平均性能は、KD-ReIDの教師を適応させるためにSTDA法を混合することで得られる。 0.70
Table 2 shows the performance of KD-ReID versus two related SOTA methods. 表2は、KD-ReIDと関連する2つのSOTA法の性能を示す。 0.59
First, Wu et al [18] proposed an MSDA method based on KD for a semi-supervised scenario. まず、Wuら[18]は、半教師付きシナリオのためのKDに基づくMSDA法を提案した。 0.60
The method should be robust to domain shift across new domains since it benefits from some labeled target domain data, このメソッドは、ラベル付きターゲットドメインデータから恩恵を受けるため、新しいドメインをまたいだドメインシフトに堅牢であるべきです。 0.70
英語(論文から抽出)日本語訳スコア
MTDA Method – base STDA MTDAメソッド - ベースSTDA 0.77
Lower Bound: Sup. on Source One Model / Target – D-MMD∗ Blending Targets – D-MMD KD-ReID – D-MMD (Ours) One Model / Target – SPCL∗ Blending Targets – SPCL KD-ReID – SPCL (Ours) KD-ReID – Mixed (Ours) Upper Bound: Sup. 下限:sup。 On Source One Model / Target - D-MMD∗ Blending Targets - D-MMD KD-ReID - D-MMD (Ours) One Model / Target - SPCL∗ Blending Targets - SPCL KD-ReID - SPCL (Ours) KD-ReID - Mixed (Ours) Upper Bound: Sup 0.35
on Targets Accuracy on Target Data (%) ターゲットについて 対象データにおける精度(%) 0.67
Market1501 DukeMTMC R1 mAP 47.0 24.9 69.3 51.4 32.5 55.6 66.8 46.7 69.6 54.2 48.9 31.5 64.7 51.5 53.3 67.0 74.8 62.3 Market1501 DukeMTMC R1 mAP 47.0 24.9 69.3 51.4 32.5 55.6 66.8 46.7 69.6 54.2 48.9 31.5 64.7 51.5 53.3 67.0 74.8 62.3 0.22
R1 mAP 27.9 50.8 51.4 74.9 59.5 35.5 47.4 70.9 52.0 75.3 31.5 54.4 45.3 74.6 75.4 48.3 58.3 82.7 R1 mAP 27.9 50.8 51.4 74.9 59.5 35.5 47.4 70.9 52.0 75.3 31.5 54.4 45.3 74.6 75.4 48.3 58.3 82.7 0.21
CUHK03 mAP 25.6 61.8 35.8 51.0 33.4 16.4 37.1 50.2 62.6 CUHK03 mAP 25.6 61.8 35.8 51.0 33.4 16.4 37.1 50.2 62.6 0.23
R1 mAP 26.1 29.1 54.9 65.9 40.5 34.6 55.3 48.4 45.9 34.8 26.5 12.1 44.6 39.8 50.6 54.4 61.1 64.8 R1 mAP 26.1 29.1 54.9 65.9 40.5 34.6 55.3 48.4 45.9 34.8 26.5 12.1 44.6 39.8 50.6 54.4 61.1 64.8 0.21
Average R1 42.3 70.0 51.9 64.3 59.9 38.5 59.7 65.6 74.1 Average R1 42.3 70.0 51.9 64.3 59.9 38.5 59.7 65.6 74.1 0.23
Complexity 0.4 M T x 27.7 M 複雑さ 0.4m T x 27.7 M 0.56
0.4 M 0.4 M # Parameters FLOPs 0.08 G 2.70 G 0.08 G 0.08 G 2.70 G 0.08 G 0.08 G 0.08 G 0.08 G 0.4m 0.4m #パラメータフラップ 0.08g 2.70g 0.08g 0.08g 0.08g 0.08g 0.08g 0.08g 0.08g 0.54
0.4 M 0.4 M 0.4 M 0.4 M 0.4m 0.4m 0.4m 0.4m 0.4m 0.45
T x 27.7 M T x 27.7 M 0.42
Table 1. Performance of MTDA methods when MSMT17 is used as the source dataset, and Market1501, DukeMTMC, and CUHK03 are used as target datasets (T = 3 targets), with 2 STDA techniques – D-MMD and SPCL. 表1。 MSMT17をソースデータセットとし、Market1501、DukeMTMC、CUHK03をターゲットデータセット(T = 3ターゲット)として、D-MMDとSPCLの2つのSTDA技術を用いてMTDA手法の性能を評価する。 0.74
Resnet50 is used to implement target-specific CNN backbones, and Osnet_x0_25 as the architecture for the common CNN backbones. Resnet50はターゲット固有のCNNバックボーンの実装に使われ、Osnet_x0_25は共通のCNNバックボーンのアーキテクチャである。 0.57
The lower bound performance is obtained through supervised training of Osnet_x0_25 on the labeled source dataset only, and then evaluation on the 3 target datasets. ラベル付きソースデータセットのみにOsnet_x0_25を教師付きトレーニングし、3つのターゲットデータセットを評価することにより、低いバウンド性能が得られる。 0.65
For the upper bound, supervised training of Osnet_x0_25 is performed on the blended target datasets. 上界では、混合ターゲットデータセット上でOsnet_x0_25の教師付きトレーニングを行う。 0.63
"*": For the "One Model / Target" methods, the Resnet50 (target-specific) performance is presented as an upper bound that should not be directly compared with other MTDA techniques. "*": "One Model / Target" メソッドでは、Resnet50(ターゲット固有の)パフォーマンスは、他のMTDA技術と直接比較するべきではない上限として提示される。 0.75
FLOPs are related to the extraction features for one sample. FLOPは1つのサンプルの抽出機能と関連している。 0.69
and the labeled data from multiple different source domains to adapt the common CNN backbone. そして、複数の異なるソースドメインからのラベル付きデータを共通のCNNバックボーンに適合させる。 0.67
In practice, this scenario is restrictive for ReID, given the need to collect datasets and annotate samples. 実際にこのシナリオは、データセットの収集とアノテーションのサンプルを必要とするため、ReIDには制限がある。 0.68
Yet, our KD-ReID outperforms this method significantly (e g , by 21.1 % in mAP, and 15.1% in rank-1 on Market1501), even with a lighter CNN backbone. しかし、我々のkd-reidは、より軽いcnnバックボーンであっても、この方法を大幅に上回っている(例えば、mapでは21.1%、market1501では15.1%)。 0.56
Second, Tian et al [17] recently proposed the only MTDA method in literature for ReID. 第2に、Tian et al [17]はReIDの文献における唯一のMTDA法を提案した。 0.66
Our method significantly outperforms this approach with an improvement of 18.3% in mAP, and 6.2% in rank-1 on average, even on a much smaller CNN architecture (by a ratio close to 60). 提案手法は,より小さなcnnアーキテクチャ(約60パーセント)においても,18.3%のmapと6.2%のrank-1の改善で,このアプローチを著しく上回っている。 0.72
In contrast, our KD-ReID method divides the problem into simpler STDA problems, that may be solved using any combination of suitable SOTA methods, rather than resolving the complex MTDA problem. 対照的に、KD-ReID法は、複雑なMTDA問題を解くのではなく、適切なSOTA法の組み合わせで解決できる、より単純なSTDA問題に分割する。 0.67
The compression with KD allows for a lightweight student model to reproduce the performance of the highly optimized teachers. kdによる圧縮により、軽量な学生モデルにより、高度に最適化された教師のパフォーマンスを再現することができる。 0.63
Figure 2 compares the average performance of the common backbone CNN obtained using the KD-ReID and blending methods. 図2は、KD-ReIDとブレンディング法を用いて得られた共通バックボーンCNNの平均性能を比較した。 0.67
The experiments are conducted using three variations of the Osnet CNN: osnet_x1_0, osnet_x0_5, and osnet_x0_25, having about 4.0M, 1.0M, and 0.4M parameters, respectively. 実験はOsnet CNNの3つのバリエーション(osnet_x1_0、osnet_x0_5、osnet_x0_25、約4.0M、1.0M、0.4M)を用いて行われた。 0.51
As shown in the figure, the gap in accuracy between the two methods widens as the model complexity is reduced. 図に示すように、モデルの複雑さが減ると、2つの方法間の精度の差が拡大する。 0.75
KD- MTDA Method – CNN Backbone KD- MTDA メソッド - CNN バックボーン 0.77
Wu [18] – MobileNetV2 Wu [18] – MobileNetV2 0.49
Tian [17] – Resnet50 Tian [17] – Resnet50 0.49
KD-ReID: SPCL Teachers KD-ReID:SPCL教師 0.77
– OSNet_x0_25 (ours) -OSNet_x0_25(ours) 0.29
Accuracy on Target Data (%) 対象データにおける精度(%) 0.82
Market1501 DukeMTMC R1 mAP 33.5 48.4 57.2 35.9 54.2 66.2 市場1501 DukeMTMC R1 mAP 33.5 48.4 57.2 35.9 54.2 66.2 0.51
mAP 29.4 33.6 47.8 地図 29.4 33.6 47.8 0.35
R1 61.5 70.4 76.6 R1 61.5 70.4 76.6 0.25
Average R1 55.0 63.8 71.4 平均R1 55.0 63.8 71.4 0.52
mAP 31.5 34.8 51.0 地図 31.5 34.8 51.0 0.33
Complexity # Para. FLOPs T x 4.3 M 0.40 G 2.70 G 0.08 G 複雑さ パラ。 フロップ t x 4.3 m 0.40 g 2.70 g 0.08 g 0.50
23.5 M 0.4 M 23.5 M 0.4 M 0.33
Table 2. Performance of KD-ReID versus related SOTA methods on 2 target domains MSMT17 → Market1501 & DukeMTMC. 表2。 2つの対象領域MSMT17 → Market1501および DukeMTMC上でのKD-ReIDと関連するSOTA法の性能 0.69
We consider multiple models for [18] since it is a MSDA method, where T is the number of targets. T が対象数である MSDA メソッドであるため,[18] に対する複数のモデルを考える。 0.72
ReID always outperforms the blending technique and remains significantly more effective for adapting lightweight models, thus more suitable for real-time applications. ReIDは常にブレンディング技術より優れており、軽量なモデルに適応する上でははるかに効果的であり、リアルタイムアプリケーションにも適しています。 0.56
Fig. 2. Impact of student model complexity on the average mAP over targets (Market1501, DukeMTMC, and CUHK03), and using MSMT17 as source. 図2。 学生モデルの複雑さが平均的mAP(Market1501, DukeMTMC, CUHK03)に与える影響とMSMT17を情報源として用いた。 0.67
The common CNN is Osnet, while teachers are Resnet50s, and D-MMD is used for STDA. 一般的なCNNはOsnetであり、教師はResnet50であり、D-MMDはSTDAに使われる。 0.69
4. CONCLUSION 4.コンキュレーション 0.72
In this paper, KD-ReID is introduced as a versatile MTDA method for real-time person ReID. 本稿では,リアルタイム人物ReIDのための汎用MTDA手法としてKD-ReIDを提案する。 0.66
To adapt each teachers model, KD-ReID allows selecting the STDA method and CNN individually, and then knowledge of all teacher models is distilled to a common lightweight CNN (student). 各教師モデルを適応させるために、KD-ReIDはSTDA法とCNNを個別に選択し、すべての教師モデルの知識を共通の軽量CNN(学生)に蒸留する。 0.77
Our experiments conducted on challenging person ReID datasets indicate that student models adapted through KD-ReID outperform blending methods, and generalize well on all targets at the same time, even when adapting a small common CNN backbone on a growing number of targets. 本実験は,KD-ReIDのブレンディング手法により適応された学生モデルにおいて,多数の目標に対して小さな共通CNNバックボーンを適用する場合であっても,すべての目標に対して高い精度で一般化可能であることを示す。
訳抜け防止モード: 挑戦的な人物ReIDデータセットを用いた実験により,KD-ReIDのブレンディング手法による学生モデルの性能向上が示唆された。 すべての目標に対して たとえ 多数のターゲットに小さな共通CNNバックボーンを適用する。
0.75
Such scalability paves the way for cost-effective systems for real-time applications. このようなスケーラビリティは、リアルタイムアプリケーションのためのコスト効率の良いシステムを実現する。 0.56
英語(論文から抽出)日本語訳スコア
5. REFERENCES [1] Y. He, X. Wei, X. Hong, W. Shi, and Y. Gong, “Multitarget multi-camera tracking by tracklet-to-target assignment,” IEEE Trans. 5.参考文献 [1] Y. He, X. Wei, X. Hong, W. Shi, Y. Gong, “Multitarget multi-camera tracking by tracklet-to-target assignment”, IEEE Trans。 0.57
Image Processing, vol. 画像処理、vol.1。 0.62
29, pp. 5191– 5205, 2020. pp. 5191– 5205, 2020。 0.67
[2] M. Boudiaf, J. Rony, I.M. Ziko, E. Granger, M. Pedersoli, P. Piantanida, and I. Ben Ayed, “A unifying mutual information view of metric learning: cross-entropy vs. pairwise losses,” in ECCV 2020. [2] m. boudiaf, j. rony, i.m. ziko, e. granger, m. pedersoli, p. piantanida, i. ben ayed, “a unified mutual information view of metric learning: cross-entropy vs. pairwise loss” (eccv 2020) の著者である。
訳抜け防止モード: [2]M.ブーダフ、J.ロニー、I.M.ジコ E. Granger, M. Pedersoli, P. Piantanida, I. Ben Ayed 「メートル法学習の統一的相互情報視点 : クロス-エントロピー対対対損失」 ECCV 2020に登場。
0.79
[3] D. Mekhazni, A. Bhuiyan, G. Ekladious, and E. Granger, “Unsupervised DA in the dissimilarity space for person reID,” in ECCV 2020. [3] d. mekhazni, a. bhuiyan, g. ekladious, e. granger, “unsupervised da in the different similarity space for person reid” (eccv 2020)で発表された。 0.59
[4] S. Xuan and S. Zhang, “Intra-inter camera similarity for 4]S.XuanとS.Zhang:「イントラインターカメラの類似性」 0.67
unsupervised person reID,” arXiv 2021. とarxiv 2021は言った。 0.31
[5] L. Wang and K Yoon, 5]l・ワンとk・ユン 0.53
“Knowledge distillation and student-teacher learning for visual intelligence: A review and new outlooks,” IEEE Trans. IEEE Transは、“知識の蒸留と学生教師によるビジュアルインテリジェンスのための学習: レビューと新しい展望”だ。 0.73
Pattern Analysis and Machine Intelligence, 2021. パターン分析とマシン・インテリジェンス、2021年。 0.79
[6] L.T. Nguyen-Meidine, A. Belal, M. Kiran, J. Dolz, L. A. Blais-Morin, and E. Granger, “Knowledge distillation methods for efficient unsupervised adaptation across multiple domains,” Image and Vision Computing, vol. 6] l.t. nguyen-meidine, a. belal, m. kiran, j. dolz, l. a. blais-morin, e. granger, “複数の領域にわたる効率的な非教師なし適応のための知識蒸留法”。
訳抜け防止モード: [6 ]L.T.Nguyen-Meidine, A. Belal, M. Kiran, J. Dolz, L. A. Blais - Morin, E. Granger 『複数の領域にまたがる効率的な非教師なし適応のための知識蒸留方法』 Image and Vision Computing, vol。
0.72
108, 2021. 108, 2021. 0.43
[7] L.T. Nguyen-Meidine, E. Granger, M. Kiran, J. Dolz, and L.A. Blais-Morin, “Joint progressive knowledge distillation and unsupervised DA,” arXiv 2020. [7] L.T. Nguyen-Meidine, E. Granger, M. Kiran, J. Dolz, L.A. Blais-Morin, “Joint progressive knowledge distillation and unsupervised DA”, arXiv 2020。
訳抜け防止モード: [7 ]L.T.Nguyen-Meidine, E. Granger, M. Kiran, J. Dolz, and L.A. Blais - Morin, “ジョイントプログレッシブな知識蒸留と教師なしDA”。 arXiv 2020。
0.69
[8] Z. Liu, Z. Miao, X. Pan, X. Zhan, D. Lin, S. Yu, and [8]Z.Liu、Z.Miao、X.Pan、X.Zhan、D.Lin、S.Yu、 0.38
B. Gong, “Open compound DA,” in CVPR 2020. b. gong, “open compound da” in cvpr 2020(英語) 0.67
[9] G. Ekladious, H. Lemoine, E. Granger, K. Kamali, and S. Moudache, “Dual-triplet metric learning for unsupervised DA in video-based face recognition,” arXiv 2020. 9]g. ekladious, h. lemoine, e. granger, k. kamali, s. moudache, “ビデオベースの顔認識で教師なしのdaのためのデュアルトリップレットメトリックラーニング”。
訳抜け防止モード: [9 ]G. Ekladious, H. Lemoine, E. Granger, K. Kamali, S. Moudache両氏は,“デュアル – 教師なしDAの3倍のメトリクス学習 – 顔認識に基づく”と述べている。 arXiv 2020。
0.63
[10] L.T. Nguyen-Meidine, M. Kiran, M. Pedersoli, J. Dolz, L.A. Blais-Morin, and E. Granger, “Incremental multitarget DA for object detection with efficient domain transfer,” arXiv 2021. 10] l.t. nguyen-meidine, m. kiran, m. pedersoli, j. dolz, l.a. blais-morin, e. granger, "効率的なドメイン転送によるオブジェクト検出のためのインクリメンタルマルチターゲットda", arxiv 2021。
訳抜け防止モード: [10 ]L.T.Nguyen-Meidine,M .Kiran,M.Pedersoli J. Dolz, L.A. Blais - Morin, E. Granger 「効率的なドメイン転送によるオブジェクト検出のためのインクリメンタルマルチターゲットDA」 arXiv 2021。
0.73
[11] Y. Ge, Z. Li, H. Zhao, G. Yin, S. Yi, X. Wang, and H. Li, “Fd-gan: Pose-guided feature distilling gan for robust person reID,” in NeurIPS 2018. He11] Y. Ge, Z. Li, H. Zhao, G. Yin, S. Yi, X. Wang, H. Li, “Fd-gan: Pose-guided feature distilling gan for robust person reID”. NeurIPS 2018.
訳抜け防止モード: [11]Y.Ge,Z.Li,H.Zhao, G.Yin,S.Yi,X.Wang,H. Li 「Fd-gan : Pose- Guided feature distilling gan for robust person reID」 2018年のNeurIPS。
0.79
[12] S. Khurana, N. Moritz, T. Hori, and J. Le Roux, “Unsupervised domain adaptation for speech recognition via uncertainty driven self-training,” in ICASSP 2021. 12] S. Khurana, N. Moritz, T. Hori, J. Le Roux, “Unsupervised domain adapt for speech Recognition through uncertainty driven self-training” in ICASSP 2021。
訳抜け防止モード: [12 ]S.Khurana,N. Moritz,T.Hori とJ. Le Roux氏は語る。「不確実性駆動型自己学習による音声認識のための教師なしドメイン適応」。 ICASSP 2021。
0.68
[13] Z. Allen-Zhu and Y. Li, “Towards understanding ensemble, knowledge distillation and self-distillation in deep learning,” arXiv 2020. Z. Allen-Zhu 氏と Y. Li 氏は,“深層学習におけるアンサンブル,知識蒸留,自己蒸留を理解する” と arXiv 2020 だ。 0.75
[14] L.T. Nguyen-Meidine, A. Belal, M. Kiran, J. Dolz, L.A. Blais-Morin, and E. Granger, “Unsupervised multi-target DA through knowledge distillation,” in WACV 2021. Nguyen-Meidine, A. Belal, M. Kiran, J. Dolz, L.A. Blais-Morin, E. Granger, “Unsupervised multi-target DA through knowledge distillation” in WACV 2021。
訳抜け防止モード: [14 ]L.T.Nguyen-Meidine, A. Belal, M. Kiran, J. Dolz, L.A. Blais - Morin, E. Granger WACV2021における「知識蒸留による非監督マルチターゲットDA」
0.72
[15] Z. Chen, J. Zhuang, X. Liang, and L. Lin, “Blendingtarget domain adaptation by adversarial meta-adaptation networks,” in CVPR 2019. 15] z. chen, j. zhuang, x. liang, l. lin, “blendingtarget domain adapt by adversarial meta-adaptation networks” cvpr 2019で発表された。 0.78
[16] B. Gholami, P. Sahu, O. Rudovic, K. Bousmalis, and V. Pavlovic, “Unsupervised multi-target domain adaptation: An information theoretic approach,” IEEE Trans. [16] b. gholami, p. sahu, o. rudovic, k. bousmalis, v. pavlovic, “教師なしのマルチターゲットドメイン適応: 情報理論的なアプローチ”、ieee transは述べている。 0.62
Image Processing, vol. 画像処理、vol.1。 0.62
29, pp. 3993–4002, 2020. 29, pp. 3993-4002, 2020。 0.84
[17] J. Tian, Q. Tang, R. Li, Z. Teng, B. Zhang, and J. Fan, “A camera identity-guided distribution consistency method for unsupervised multi-target domain person reID,” ACM Trans. [17]j. tian, q. tang, r. li, z. teng, b. zhang, j. fan, “教師なしマルチターゲットドメインのreidに対するカメラidによる分散一貫性の方法”、とacm transは述べている。
訳抜け防止モード: [17 ]J. Tian, Q. Tang, R. Li, Z. Teng, B. Zhang, J. Fan 氏は,“カメラアイデンティティ - 教師なしマルチターゲットドメインパーソン reID の分散一貫性をガイドする”。 ACMトランス。
0.72
Intelligent Systems and Technology, vol. Intelligent Systems and Technology, vol. (英語) 0.75
12, no. 4, pp. 1–18, 2021. 12,4, pp. 1-18, 2021。 0.76
[18] A. Wu, W.S. Zheng, X. Guo, and J.H. Lai, “Distilled person reID : Towards a more scalable system,” in CVPR 2019. 18] a. wu, w.s. zheng, x. guo, j.h. lai, “distilled person reid: towards a scalable system” cvpr 2019で紹介された。 0.71
[19] A. Wu, W.S. Zheng, X. Guo, and J.H. Lai, “Distilled person reID : Towards a more scalable system,” in CVPR 2019. 19] a. wu, w.s. zheng, x. guo, j.h. lai, “distilled person reid: towards a scalable system” cvpr 2019で紹介された。 0.71
[20] C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, and Z. Wojna, “Rethinking the inception architecture for computer vision,” in ICCV 2016. C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, “Rethinking the Inception Architecture for computer vision” in ICCV 2016. ICCV 2016
訳抜け防止モード: [20]C. Szegedy, V. Vanhoucke, S. Ioffe, J. Shlens, Z. Wojna, “コンピュータビジョンの開始アーキテクチャを再考する”。 ICCV 2016に登場。
0.87
[21] A. Hermans, L. Beyer, and B. Leibe, “In defense of the A. Hermans, L. Beyer, and B. Leibe, “In Defense of the。 0.40
triplet loss for person reID,” arXiv 2017. とarxiv 2017で発表した。 0.23
[22] Y. Ge, F. Zhu, D. Chen, R. Zhao, et al , “Self-paced contrastive learning with hybrid memory for domain adaptive object re-id,” NeurIPS 2020. 22] y. ge, f. zhu, d. chen, r. zhao, et al, “ドメイン適応オブジェクト再識別のためのハイブリッドメモリによる自己ペースのコントラスト学習”。 0.70
[23] Wei Li, Rui Zhao, Tong Xiao, and Xiaogang Wang, “Deepreid: Deep filter pairing neural network for person reID,” in CVPR 2014. [23] Wei Li, Rui Zhao, Tong Xiao, Xiaogang Wang, “Deepreid: Deep Filter pairing Neural Network for person reID”とCVPR 2014で述べている。 0.84
[24] L. Zheng, L. Shen, L. Tian, S. Wang, J. Wang, and Q. Tian, “Scalable person reID : A benchmark,” in ICCV 2015. L. Zheng, L. Shen, L. Tian, S. Wang, J. Wang, Q. Tian, “Scalable person reID : A benchmark” in ICCV 2015
訳抜け防止モード: 24 ] l. zheng, l. shen, l. tian s. wang, j. wang, q. tian, “スケーラブルな人物リード: ベンチマーク” 2015年、iccvに移籍。
0.66
[25] Z. Zhang, J. Wu, X. Zhang, and C. Zhang, “Multi-target, multi-camera tracking by hierarchical clustering: Recent progress on dukemtmc project,” arXiv 2017. Z. Zhang, J. Wu, X. Zhang, and C. Zhang, “Multi-target, multi-camera tracking by hierarchical clustering: recent progress on dukemtmc project” arXiv 2017
訳抜け防止モード: 25] z. zhang, j. wu, x. zhang. 階層クラスタリングによるマルチターゲット、マルチカメラトラッキング:dukemtmcプロジェクトにおける最近の進歩” arxiv 2017。
0.60
[26] L. Wei, S. Zhang, W. Gao, and Q. Tian, “Person transfer gan to bridge domain gap for person reID,” in CVPR 2018. 26] l. wei, s. zhang, w. gao, q. tian, “person transfer gan to bridge domain gap for person reid” cvpr 2018で発表された。 0.72
[27] K. He, X. Zhang, S. Ren, and J. Sun, “Deep residual 27] he, x. zhang, s. ren, j. sun, 「深い残留」 0.63
learning for image recognition,” in CVPR 2016. とCVPR 2016で述べている。 0.41
[28] K. Zhou, Y. Yang, A. Cavallaro, and T. Xiang, “Omni- K. Zhou, Y. Yang, A. Cavallaro, T. Xiang, “Omni-” 0.36
scale feature learning for person reID,” in ICCV 2019. とICCV 2019で述べている。 0.30
           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。