論文の概要: Bi-directional Exponential Angular Triplet Loss for RGB-Infrared Person
Re-Identification
- arxiv url: http://arxiv.org/abs/2006.00878v5
- Date: Tue, 29 Dec 2020 08:36:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:27:04.282205
- Title: Bi-directional Exponential Angular Triplet Loss for RGB-Infrared Person
Re-Identification
- Title(参考訳): RGB-赤外線人物再同定のための双方向指数角トリプルト損失
- Authors: Hanrong Ye, Hong Liu, Fanyang Meng, Xia Li
- Abstract要約: 本稿では,角分離可能な共通特徴空間の学習を支援するために,二方向指数Angularトリプルトロスという新たなランキング損失関数を提案する。
SYSU-MM01データセットでは、7.40%/11.46%から38.57%/38.61%に改善されている。
提案手法は単一モードRe-IDのタスクに一般化することができる。
- 参考スコア(独自算出の注目度): 18.09586167227815
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: RGB-Infrared person re-identification (RGB-IR Re- ID) is a cross-modality
matching problem, where the modality discrepancy is a big challenge. Most
existing works use Euclidean metric based constraints to resolve the
discrepancy between features of images from different modalities. However,
these methods are incapable of learning angularly discriminative feature
embedding because Euclidean distance cannot measure the included angle between
embedding vectors effectively. As an angularly discriminative feature space is
important for classifying the human images based on their embedding vectors, in
this paper, we propose a novel ranking loss function, named Bi-directional
Exponential Angular Triplet Loss, to help learn an angularly separable common
feature space by explicitly constraining the included angles between embedding
vectors. Moreover, to help stabilize and learn the magnitudes of embedding
vectors, we adopt a common space batch normalization layer. The quantitative
and qualitative experiments on the SYSU-MM01 and RegDB dataset support our
analysis. On SYSU-MM01 dataset, the performance is improved from 7.40% / 11.46%
to 38.57% / 38.61% for rank-1 accuracy / mAP compared with the baseline. The
proposed method can be generalized to the task of single-modality Re-ID and
improves the rank-1 accuracy / mAP from 92.0% / 81.7% to 94.7% / 86.6% on the
Market-1501 dataset, from 82.6% / 70.6% to 87.6% / 77.1% on the DukeMTMC-reID
dataset. Code: https://github.com/prismformore/expAT
- Abstract(参考訳): RGB-赤外線人物再識別(RGB-IR Re-ID)は、モダリティの相違が大きな課題である。
既存の研究の多くはユークリッド計量に基づく制約を用いて、異なるモダリティの画像の特徴間の相違を解決する。
しかし、ユークリッド距離は埋め込みベクトル間の包含角度を効果的に測定できないため、これらの方法は角差別的特徴埋め込みを学習できない。
本稿では,その埋め込みベクトルに基づいて人間像を分類する上で,角判別的特徴空間が重要であるため,埋め込みベクトル間の包含角を明示的に制約することにより,角分離可能な共通特徴空間を学ぶために,双方向指数的角三重項損失と呼ばれる新しいランキング損失関数を提案する。
さらに,埋め込みベクトルの大きさを安定させ学習するために,共通空間バッチ正規化層を採用する。
SYSU-MM01とRegDBデータセットに関する定量的および定性的な実験は、我々の分析をサポートする。
SYSU-MM01データセットでは、ベースラインと比較して、パフォーマンスが7.40%/11.46%から38.57%/38.61%に改善されている。
提案手法は単一モダリティ Re-ID のタスクに一般化することができ,92.0% / 81.7% から 94.7% / 86.6% へとランク-1 の精度を 82.6% / 70.6% から 87.6% / 77.1% へと改善する。
コード:https://github.com/prismformore/expAT
関連論文リスト
- RGB-based Category-level Object Pose Estimation via Decoupled Metric
Scale Recovery [72.13154206106259]
本研究では、6次元のポーズとサイズ推定を分離し、不完全なスケールが剛性変換に与える影響を緩和するパイプラインを提案する。
具体的には,事前学習した単分子推定器を用いて局所的な幾何学的情報を抽出する。
別個のブランチは、カテゴリレベルの統計に基づいてオブジェクトのメートル法スケールを直接復元するように設計されている。
論文 参考訳(メタデータ) (2023-09-19T02:20:26Z) - Improving CNN-based Person Re-identification using score Normalization [2.462953128215087]
本稿では,CNNに基づく特徴抽出手法とXQDA(Cross-view Quadratic Discriminant Analysis)を組み合わせたPRe-IDを提案する。
提案手法は、VIPeR、GRID、CUHK01、VIPeR、PRID450Sの4つの挑戦的データセットで検証される。
論文 参考訳(メタデータ) (2023-07-01T18:12:27Z) - Learning Feature Recovery Transformer for Occluded Person
Re-identification [71.18476220969647]
本稿では,FRT(Feature Recovery Transformer)と呼ばれる2つの課題を同時に解決する手法を提案する。
特徴マッチング時のノイズの干渉を低減するため,両画像に現れる可視領域に着目し,類似性を計算するための可視グラフを開発した。
2つ目の課題は、グラフの類似性に基づいて、各クエリ画像に対して、ギャラリー内の$k$-nearestの隣人の特徴セットを利用して、完全な特徴を復元するリカバリトランスフォーマを提案することである。
論文 参考訳(メタデータ) (2023-01-05T02:36:16Z) - Meta Learning Low Rank Covariance Factors for Energy-Based Deterministic
Uncertainty [58.144520501201995]
ニューラルネットワーク層のBi-Lipschitz正規化は、各レイヤの特徴空間におけるデータインスタンス間の相対距離を保存する。
注意セットエンコーダを用いて,タスク固有の共分散行列を効率的に構築するために,対角的,対角的,低ランクな要素のメタ学習を提案する。
また,最終的な予測分布を達成するために,スケールしたエネルギーを利用する推論手法を提案する。
論文 参考訳(メタデータ) (2021-10-12T22:04:19Z) - Learning Instance-level Spatial-Temporal Patterns for Person
Re-identification [80.43222559182072]
本稿では,Re-IDの精度を向上させるために,新しいインスタンスレベルおよび時空間ディスタングル型Re-ID法を提案する。
提案フレームワークでは,移動方向などのパーソナライズされた情報を探索空間をさらに狭めるため,明示的に検討している。
提案手法は市場1501で90.8%,DukeMTMC-reIDで89.1%,ベースライン82.2%,72.7%から改善した。
論文 参考訳(メタデータ) (2021-07-31T07:44:47Z) - Leaning Compact and Representative Features for Cross-Modality Person
Re-Identification [18.06382007908855]
本稿では,クロスモダリティ可視赤外人物再識別(vi re-id)タスクに注目する。
提案手法は他の最も先進的な手法よりも印象的な性能で優れている。
論文 参考訳(メタデータ) (2021-03-26T01:53:16Z) - SAR-U-Net: squeeze-and-excitation block and atrous spatial pyramid
pooling based residual U-Net for automatic liver CT segmentation [3.192503074844775]
Squeeze-and-Excitation(SE)ブロック,Atrous Space Pyramid Pooling(ASPP),Resternal Learningといったテクニックを活用した,U-Netベースのフレームワークが提案されている。
提案手法の有効性を2つの公開データセットLiTS17とSLiver07で検証した。
論文 参考訳(メタデータ) (2021-03-11T02:32:59Z) - Attentional-Biased Stochastic Gradient Descent [74.49926199036481]
深層学習におけるデータ不均衡やラベルノイズ問題に対処するための証明可能な手法(ABSGD)を提案する。
本手法は運動量SGDの簡易な修正であり,各試料に個別の重み付けを行う。
ABSGDは追加コストなしで他の堅牢な損失と組み合わせられるほど柔軟である。
論文 参考訳(メタデータ) (2020-12-13T03:41:52Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - Cross-Modality Paired-Images Generation for RGB-Infrared Person
Re-Identification [29.92261627385826]
本稿では,大域的セットレベルと細粒度インスタンスレベルのアライメントを両立させることを提案する。
本手法は,モダリティに特有な特徴を明示的に除去し,モダリティの変動を低減できる。
我々のモデルはランク1とmAPで9.2%と7.7%を得ることができる。
論文 参考訳(メタデータ) (2020-02-10T22:15:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。