論文の概要: Multi-level Distance Regularization for Deep Metric Learning
- arxiv url: http://arxiv.org/abs/2102.04223v1
- Date: Mon, 8 Feb 2021 14:16:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 15:38:28.387116
- Title: Multi-level Distance Regularization for Deep Metric Learning
- Title(参考訳): 深層学習のための多レベル距離正規化
- Authors: Yonghyun Kim and Wonpyo Park
- Abstract要約: MDR(Multi-level Distance Regularization)と呼ばれる深度学習のための距離に基づく新しい正規化手法を提案する。
MDRは、埋め込みベクトル間のペアワイズ距離を複数のレベルに調整することで、学習手順を明示的に妨害する。
我々のMDRを簡単に採用することで、従来のアプローチは性能と一般化能力を向上させることができる。
- 参考スコア(独自算出の注目度): 20.178765779788492
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a novel distance-based regularization method for deep metric
learning called Multi-level Distance Regularization (MDR). MDR explicitly
disturbs a learning procedure by regularizing pairwise distances between
embedding vectors into multiple levels that represents a degree of similarity
between a pair. In the training stage, the model is trained with both MDR and
an existing loss function of deep metric learning, simultaneously; the two
losses interfere with the objective of each other, and it makes the learning
process difficult. Moreover, MDR prevents some examples from being ignored or
overly influenced in the learning process. These allow the parameters of the
embedding network to be settle on a local optima with better generalization.
Without bells and whistles, MDR with simple Triplet loss achieves
the-state-of-the-art performance in various benchmark datasets: CUB-200-2011,
Cars-196, Stanford Online Products, and In-Shop Clothes Retrieval. We
extensively perform ablation studies on its behaviors to show the effectiveness
of MDR. By easily adopting our MDR, the previous approaches can be improved in
performance and generalization ability.
- Abstract(参考訳): MDR (Multi-level Distance regularization) と呼ばれる深度計量学習のための新しい距離ベースの正規化手法を提案する。
MDRは、組込みベクトル間の対距離をペア間の類似度を表す複数のレベルに規則化することにより、学習手順を明示的に妨害する。
トレーニング段階では、モデルはMDRと深度メトリクス学習の既存の損失関数の両方で同時に訓練されます。2つの損失はお互いの目的に干渉し、学習プロセスが困難になります。
さらに、MDRは、いくつかの例が学習プロセスで無視または過度に影響を受けないようにします。
これにより、埋め込みネットワークのパラメータがより一般化されたローカルオプティマに落ち着くことができる。
cub-200-2011、cars-196、stanford online products、in-shop clothing retrievalといったベンチマークデータセットでは、単純な三重項損失のmdrが最先端のパフォーマンスを達成している。
MDRの有効性を示すために、その行動に関するアブレーション研究を幅広く実施しています。
我々のMDRを簡単に採用することで、従来のアプローチは性能と一般化能力を向上させることができる。
関連論文リスト
- Learning Empirical Bregman Divergence for Uncertain Distance
Representation [3.9142982525021512]
本稿では,Bregman分散の根底にある凸関数のパラメータ化に基づくデータから直接,経験的Bregman分散を学習するための新しい手法を提案する。
提案手法は,他のSOTA深度学習法と比較して,一般的な5つのデータセットに対して効果的に動作し,特にパターン認識問題に対して有効である。
論文 参考訳(メタデータ) (2023-04-16T04:16:28Z) - Few-shot Transferable Robust Representation Learning via Bilevel Attacks [59.167432249229584]
本稿では,二段階攻撃を伴う対戦型自己教師型メタラーニングフレームワークを提案する。
未確認領域適応タスクに対するアプローチの有効性を実験的に検証した。
本手法は,数発の学習課題において,最先端のメタ・アドバイサル学習法よりも優れていた。
論文 参考訳(メタデータ) (2022-10-19T11:48:01Z) - Adaptive neighborhood Metric learning [184.95321334661898]
適応的近傍距離距離学習(ANML)という新しい距離距離距離距離距離距離学習アルゴリズムを提案する。
ANMLは線形埋め込みと深層埋め込みの両方を学ぶのに使うことができる。
本手法で提案するemphlog-exp平均関数は,深層学習手法をレビューするための新たな視点を与える。
論文 参考訳(メタデータ) (2022-01-20T17:26:37Z) - Cooperative Deep $Q$-learning Framework for Environments Providing Image
Feedback [5.607676459156789]
本稿では, 深層強化学習, サンプル非効率性, 遅い学習の2つの課題を, NN駆動学習の2つのアプローチで解決する。
特に、時間差(TD)誤差駆動学習手法を開発し、TD誤差の線形変換のセットを導入し、ディープNNの各層のパラメータを直接更新する。
提案手法は学習と収束を高速化し,バッファサイズの削減を必要とすることを示す。
論文 参考訳(メタデータ) (2021-10-28T17:12:41Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Rethinking Deep Contrastive Learning with Embedding Memory [58.66613563148031]
ペアワイズ損失関数は広く研究され、dml(deep metric learning)のパフォーマンスを継続的に改善することが示されている。
本稿では,様々な対損失関数の重み付け戦略を体系的に研究する新しい手法を提案し,組重み付けを埋め込みメモリで再考する。
論文 参考訳(メタデータ) (2021-03-25T17:39:34Z) - Decoupled and Memory-Reinforced Networks: Towards Effective Feature
Learning for One-Step Person Search [65.51181219410763]
歩行者検出と識別サブタスクを1つのネットワークで処理するワンステップ方式を開発しました。
現在のワンステップアプローチには2つの大きな課題があります。
本稿では,これらの問題を解決するために,分離メモリ強化ネットワーク(DMRNet)を提案する。
論文 参考訳(メタデータ) (2021-02-22T06:19:45Z) - Multimodal-Aware Weakly Supervised Metric Learning with Self-weighting
Triplet Loss [2.010312620798609]
MDaML (MultimoDal Aware weakly supervised Metric Learning) と呼ばれる新しい弱教師付きメトリック学習アルゴリズムを提案する。
MDaMLは、データ空間を複数のクラスタに分割し、各サンプルのローカルクラスタセンターとウェイトを割り当てる。
13のデータセットで実験を行い、提案したMDaMLの優位性を検証した。
論文 参考訳(メタデータ) (2021-02-03T07:27:05Z) - Towards Certified Robustness of Distance Metric Learning [53.96113074344632]
我々は,距離学習アルゴリズムの一般化とロバスト性を改善するために,入力空間に逆のマージンを付与することを提唱する。
アルゴリズム的ロバスト性の理論手法を用いることにより,拡張マージンは一般化能力に有益であることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:51:53Z) - Deep Divergence Learning [11.88774207521156]
本稿では,ニューラルネットワークを用いた関数型ブレグマン発散の学習とパラメータ化に基づくディープブレグマン発散について紹介する。
特に、分布を比較するために、ディープメトリックラーニング、カーネルメトリックラーニング、マハラノビスメトリックラーニング、モーメントマッチング機能がどのように現れるかを示す。
次に、一般関数型Bregman分散学習のためのディープラーニングフレームワークを説明し、この手法がベンチマークデータセット上で優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2020-05-06T06:43:25Z) - Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning [28.54755295856929]
我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
論文 参考訳(メタデータ) (2020-02-19T22:16:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。