論文の概要: Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning
- arxiv url: http://arxiv.org/abs/2002.08473v9
- Date: Sat, 1 Aug 2020 16:14:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 14:10:47.760454
- Title: Revisiting Training Strategies and Generalization Performance in Deep
Metric Learning
- Title(参考訳): 深層学習におけるトレーニング戦略の再検討と一般化性能
- Authors: Karsten Roth, Timo Milbich, Samarth Sinha, Prateek Gupta, Bj\"orn
Ommer, Joseph Paul Cohen
- Abstract要約: 我々は、最も広く使われているDML目的関数を再検討し、重要なパラメータ選択について検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
これらの知見を公開し、ランキングベースのDMLモデルの性能を確実に向上させるために、単純かつ効果的に正規化を訓練することを提案する。
- 参考スコア(独自算出の注目度): 28.54755295856929
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Metric Learning (DML) is arguably one of the most influential lines of
research for learning visual similarities with many proposed approaches every
year. Although the field benefits from the rapid progress, the divergence in
training protocols, architectures, and parameter choices make an unbiased
comparison difficult. To provide a consistent reference point, we revisit the
most widely used DML objective functions and conduct a study of the crucial
parameter choices as well as the commonly neglected mini-batch sampling
process. Under consistent comparison, DML objectives show much higher
saturation than indicated by literature. Further based on our analysis, we
uncover a correlation between the embedding space density and compression to
the generalization performance of DML models. Exploiting these insights, we
propose a simple, yet effective, training regularization to reliably boost the
performance of ranking-based DML models on various standard benchmark datasets.
Code and a publicly accessible WandB-repo are available at
https://github.com/Confusezius/Revisiting_Deep_Metric_Learning_PyTorch.
- Abstract(参考訳): ディープメトリック学習(dml)は、毎年提案されている多くのアプローチと視覚的な類似性を学ぶための最も影響力のある研究の1つである。
フィールドは急速な進歩から恩恵を受けるが、トレーニングプロトコル、アーキテクチャ、パラメータの選択の相違はバイアスのない比較を難しくする。
そこで我々は,最も広く使用されているDML対象関数を再検討し,重要なパラメータ選択と,一般的に無視されるミニバッチサンプリングプロセスについて検討する。
一貫した比較では、DMLの目的は文学で示されるよりもはるかに高い飽和を示す。
さらに解析により,DMLモデルの一般化性能に対する埋め込み空間密度と圧縮の相関関係を明らかにする。
これらの知見をエクスプロイトし、様々な標準ベンチマークデータセット上でランキングベースのDMLモデルの性能を確実に向上させるための、シンプルで効果的なトレーニング正則化を提案する。
コードとWandB-repoはhttps://github.com/Confusezius/Revisiting_Deep_Metric_Learning_PyTorchで公開されている。
関連論文リスト
- Improved Diversity-Promoting Collaborative Metric Learning for Recommendation [127.08043409083687]
CML(Collaborative Metric Learning)は、リコメンデーションシステムにおいて人気のある手法として最近登場した。
本稿では,ユーザが複数のカテゴリの関心を持つ,困難なシナリオに焦点をあてる。
textitDiversity-Promoting Collaborative Metric Learning (DPCML) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T07:44:48Z) - Take the Bull by the Horns: Hard Sample-Reweighted Continual Training
Improves LLM Generalization [165.98557106089777]
大きな言語モデル(LLM)の能力を高めることが大きな課題だ。
本研究は,従来の事前学習データセットを用いたLCMの光連続訓練に関する実証的戦略から始まった。
次に、この戦略をインスタンス重み付け分散ロバスト最適化の原則化されたフレームワークに定式化します。
論文 参考訳(メタデータ) (2024-02-22T04:10:57Z) - Learning Semantic Proxies from Visual Prompts for Parameter-Efficient Fine-Tuning in Deep Metric Learning [13.964106147449051]
既存のソリューションは、既存の画像データセット上でトレーニング済みのモデルを微調整することに集中している。
我々は、事前学習された視覚変換器(ViT)における視覚プロンプト(VPT)の学習に基づく、新しい効果的なフレームワークを提案する。
セマンティック情報を用いた新しい近似が代表的能力よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-04T04:42:05Z) - Mean-AP Guided Reinforced Active Learning for Object Detection [31.304039641225504]
本稿では,オブジェクト検出のための平均APガイド型アクティブラーニングについて紹介する。
MGRALは、予測されたモデル出力変化の概念を深層検知ネットワークの情報性として活用する新しいアプローチである。
提案手法は,物体検出のための強化学習に基づく能動学習における新たなパラダイムを確立し,高い性能を示す。
論文 参考訳(メタデータ) (2023-10-12T14:59:22Z) - Guided Deep Metric Learning [0.9786690381850356]
我々は、ガイドドディープメトリックラーニングと呼ばれる新しいDML手法を提案する。
提案手法は、最大40%の改善まで、より優れた多様体の一般化と表現が可能である。
論文 参考訳(メタデータ) (2022-06-04T17:34:11Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - Characterizing Generalization under Out-Of-Distribution Shifts in Deep
Metric Learning [32.51394862932118]
本稿では,DMLにおける分布外シフトの下での一般化を特徴付けるために,ooDMLベンチマークを提案する。
ooDMLは、より困難で多様な列車間分散シフトにおいて、一般化性能を調査するために設計されている。
一般化は難易度に常に低下する傾向にあるが, 分散シフトが増加するにつれて, 性能が向上する手法もある。
論文 参考訳(メタデータ) (2021-07-20T15:26:09Z) - Memory-Based Optimization Methods for Model-Agnostic Meta-Learning and
Personalized Federated Learning [56.17603785248675]
モデルに依存しないメタラーニング (MAML) が人気のある研究分野となっている。
既存のMAMLアルゴリズムは、イテレーション毎にメタモデルを更新するためにいくつかのタスクとデータポイントをサンプリングすることで、エピソードのアイデアに依存している。
本稿では,MAMLのメモリベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-09T08:47:58Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - DiVA: Diverse Visual Feature Aggregation for Deep Metric Learning [83.48587570246231]
視覚的類似性は多くのコンピュータビジョンアプリケーションにおいて重要な役割を果たす。
ディープ・メトリック・ラーニング(DML)は、そのような類似性を学ぶための強力なフレームワークである。
我々は,概念的に異なるデータ関係を対象とする複数の補完学習タスクを提案し,研究する。
我々は、訓練信号を集約する単一モデルを学び、その結果、強力な一般化と最先端のパフォーマンスが得られる。
論文 参考訳(メタデータ) (2020-04-28T12:26:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。