論文の概要: Strong but Simple Baseline with Dual-Granularity Triplet Loss for
Visible-Thermal Person Re-Identification
- arxiv url: http://arxiv.org/abs/2012.05010v2
- Date: Wed, 10 Mar 2021 08:01:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:02:43.357387
- Title: Strong but Simple Baseline with Dual-Granularity Triplet Loss for
Visible-Thermal Person Re-Identification
- Title(参考訳): バイシブル・サーマルパーソン再同定のための双極性三重項損失を持つ強いが単純なベースライン
- Authors: Haijun Liu, Yanxia Chai, Xiaoheng Tan, Dong Li and Xichuan Zhou
- Abstract要約: 可視熱者再同定(VT-ReID)のための概念的に単純かつ効果的な二重粒度三重項損失を提案する。
提案する双粒度三重項損失は, 試料ベース三重項損失と中心ベース三重項損失を, 粒状粒度で階層的に整理する。
- 参考スコア(独自算出の注目度): 9.964287254346976
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this letter, we propose a conceptually simple and effective
dual-granularity triplet loss for visible-thermal person re-identification
(VT-ReID). In general, ReID models are always trained with the sample-based
triplet loss and identification loss from the fine granularity level. It is
possible when a center-based loss is introduced to encourage the intra-class
compactness and inter-class discrimination from the coarse granularity level.
Our proposed dual-granularity triplet loss well organizes the sample-based
triplet loss and center-based triplet loss in a hierarchical fine to coarse
granularity manner, just with some simple configurations of typical operations,
such as pooling and batch normalization. Experiments on RegDB and SYSU-MM01
datasets show that with only the global features our dual-granularity triplet
loss can improve the VT-ReID performance by a significant margin. It can be a
strong VT-ReID baseline to boost future research with high quality.
- Abstract(参考訳): 本稿では,可視的熱的人物再同定(vt-reid)に対する概念的に単純かつ効果的な双粒度三重項損失を提案する。
一般に、ReIDモデルは常にサンプルベースの三重項損失と粒度レベルからの識別損失で訓練される。
粗粒度レベルからクラス内コンパクト性やクラス間識別を促進するために、センターベース損失を導入することが可能である。
提案する双粒度三重項損失は,プール処理やバッチ正規化といった典型的な操作の単純な構成と相まって,階層的な細粒度から粗粒度まで,サンプルベース三重項損失と中心ベース三重項損失をうまく整理する。
RegDBとSYSU-MM01データセットの実験では、グローバルな特徴のみにより、二重粒度3重項の損失はVT-ReIDの性能を著しく向上させることができる。
高品質で将来の研究を促進するために、強力なVT-ReIDベースラインとなる可能性がある。
関連論文リスト
- ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - Multi-threshold Deep Metric Learning for Facial Expression Recognition [60.26967776920412]
本稿では,難易度検証を回避する多閾値深度学習手法を提案する。
その結果,三重項損失のそれぞれの閾値は本質的にクラス間変動の特異な分布を決定することがわかった。
埋め込み層はスライスで構成されており、より情報的で差別的な特徴である。
論文 参考訳(メタデータ) (2024-06-24T08:27:31Z) - Weak Alignment Supervision from Hybrid Model Improves End-to-end ASR [5.2823268671093775]
我々は、音声認識のエンドツーエンドモデリングを支援するために、既存のハイブリッドシステムから弱いアライメントの監督を作成する。
次に、導出したアライメントを用いてエンコーダの特定の層にクロスエントロピー損失を生成する。
一般的な1ホットクロスエントロピー損失とは対照的に,ラベル平滑化パラメータを持つクロスエントロピー損失を用いて監督を規則化する。
論文 参考訳(メタデータ) (2023-11-24T20:14:28Z) - Learning an Invertible Output Mapping Can Mitigate Simplicity Bias in
Neural Networks [66.76034024335833]
バックボーンによって多様・複雑な特徴が学習される理由を考察し、その脆さは、主に最も単純な特徴に依存する線形分類ヘッドによるものである。
本稿では,学習した特徴がログから復元可能であることを保証するために,特徴再構成正則化器(FRR)を提案する。
我々は、最近導入された極端分布シフトを持つ半合成データセットにおいて、OOD精度が最大15%向上することを示した。
論文 参考訳(メタデータ) (2022-10-04T04:01:15Z) - Unified Loss of Pair Similarity Optimization for Vision-Language
Retrieval [35.141916376979836]
視覚言語検索には2つの一般的な損失関数、すなわち三重項損失と対照的な学習損失がある。
本稿では,視覚言語検索のためのペア類似度最適化の統一的損失を提案する。
論文 参考訳(メタデータ) (2022-09-28T07:01:22Z) - The KFIoU Loss for Rotated Object Detection [115.334070064346]
本稿では,SkewIoU損失とトレンドレベルアライメントを両立できる近似的損失を考案する上で,有効な方法の1つとして論じる。
具体的には、対象をガウス分布としてモデル化し、SkewIoUのメカニズムを本質的に模倣するためにカルマンフィルタを採用する。
KFIoUと呼ばれる新たな損失は実装が容易で、正確なSkewIoUよりもうまく動作する。
論文 参考訳(メタデータ) (2022-01-29T10:54:57Z) - Label Distributionally Robust Losses for Multi-class Classification:
Consistency, Robustness and Adaptivity [55.29408396918968]
多クラス分類のためのラベル分布ロバスト(LDR)損失という損失関数群について検討した。
我々の貢献は、多クラス分類のためのLDR損失のトップ$kの一貫性を確立することによって、一貫性と堅牢性の両方を含んでいる。
本稿では,各インスタンスのクラスラベルの雑音度に個別化温度パラメータを自動的に適応させる適応型LDR損失を提案する。
論文 参考訳(メタデータ) (2021-12-30T00:27:30Z) - Deep Ranking with Adaptive Margin Triplet Loss [5.220120772989114]
本稿では,固定利得三重項損失から適応利得三重項損失への簡単な修正を提案する。
提案した損失は,評価値が連続値である評価データセットに適している。
論文 参考訳(メタデータ) (2021-07-13T15:37:20Z) - Unified Batch All Triplet Loss for Visible-Infrared Person
Re-identification [33.23261883419256]
バッチハードトリプルトロスは、個人再識別タスクで広く使われているが、可視赤外線人物再識別タスクではうまく機能しない。
そこで本研究では,最も難しい三重項ではなく,全ての三重項を抽出して最適化する,全三重項選択方式を提案する。
また、画像ベクトル間のコサイン距離を協調的に最適化するために、Unified Batch All Triplet lossとCosine Softmax lossを導入する。
論文 参考訳(メタデータ) (2021-03-08T08:58:52Z) - Parameter Sharing Exploration and Hetero-Center based Triplet Loss for
Visible-Thermal Person Re-Identification [17.402673438396345]
本稿では,VT Re-ID(VT Re-ID)タスクについて述べる。
提案手法は,最先端の手法を大きなマージンで明らかに上回っている。
論文 参考訳(メタデータ) (2020-08-14T07:40:35Z) - Beyond Triplet Loss: Meta Prototypical N-tuple Loss for Person
Re-identification [118.72423376789062]
マルチクラス分類損失(N-tuple loss)を導入し、クエリごとの最適化のために複数の(N)インスタンスを共同で検討する。
マルチクラス分類を組み込んだモデルにより,ベンチマーク対象のReIDデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2020-06-08T23:34:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。