論文の概要: Adaptive additive classification-based loss for deep metric learning
- arxiv url: http://arxiv.org/abs/2006.14693v1
- Date: Thu, 25 Jun 2020 20:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 03:31:26.472933
- Title: Adaptive additive classification-based loss for deep metric learning
- Title(参考訳): 適応的付加的分類に基づくDeep Metric Learningのための損失
- Authors: Istvan Fehervari and Ives Macedo
- Abstract要約: 分類に基づくディープメトリック学習において,既存の適応マージンの拡張を提案する。
コンバージェンスを高速化し、コードの複雑さを従来の最先端よりも小さくすることで、私たちの成果が得られました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent works have shown that deep metric learning algorithms can benefit from
weak supervision from another input modality. This additional modality can be
incorporated directly into the popular triplet-based loss function as
distances. Also recently, classification loss and proxy-based metric learning
have been observed to lead to faster convergence as well as better retrieval
results, all the while without requiring complex and costly sampling
strategies. In this paper we propose an extension to the existing adaptive
margin for classification-based deep metric learning. Our extension introduces
a separate margin for each negative proxy per sample. These margins are
computed during training from precomputed distances of the classes in the other
modality. Our results set a new state-of-the-art on both on the Amazon fashion
retrieval dataset as well as on the public DeepFashion dataset. This was
observed with both fastText- and BERT-based embeddings for the additional
textual modality. Our results were achieved with faster convergence and lower
code complexity than the prior state-of-the-art.
- Abstract(参考訳): 近年の研究では、深い計量学習アルゴリズムは、他の入力モダリティの弱い監督の恩恵を受けることが示されている。
この追加のモダリティは、距離として人気のある三重項に基づく損失関数に直接組み込むことができる。
また、近年では分類損失やプロキシに基づく計量学習が観察され、複雑でコストのかかるサンプリング戦略を必要とせず、より高速な収束とより良い検索結果が得られている。
本稿では,分類に基づくディープメトリック学習のための適応マージンの拡張を提案する。
当社のエクステンションでは,サンプル毎の負のプロキシ毎にマージンを別々に導入しています。
これらのマージンは、他のモダリティのクラスの事前計算された距離からトレーニング中に計算される。
私たちの結果は、Amazonのファッション検索データセットとパブリックなDeepFashionデータセットの両方に新しい最先端技術を設定しました。
これは、追加のテキストモダリティのためのfastTextとBERTベースの埋め込みで観察された。
私たちの結果は、コンバージェンスとコードの複雑さを従来の最先端よりも速くして達成しました。
関連論文リスト
- Anti-Collapse Loss for Deep Metric Learning Based on Coding Rate Metric [99.19559537966538]
DMLは、分類、クラスタリング、検索といった下流タスクのための識別可能な高次元埋め込み空間を学習することを目的としている。
埋め込み空間の構造を維持し,特徴の崩壊を避けるために,反崩壊損失と呼ばれる新しい損失関数を提案する。
ベンチマークデータセットの総合実験により,提案手法が既存の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-07-03T13:44:20Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Noisy Self-Training with Synthetic Queries for Dense Retrieval [49.49928764695172]
合成クエリと組み合わせた,ノイズの多い自己学習フレームワークを提案する。
実験結果から,本手法は既存手法よりも一貫した改善が得られた。
我々の手法はデータ効率が良く、競争のベースラインより優れています。
論文 参考訳(メタデータ) (2023-11-27T06:19:50Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Supervised Metric Learning to Rank for Retrieval via Contextual
Similarity Optimization [16.14184145802016]
多くのメートル法学習損失関数は、トレーニングサンプルの正しいランキングを学習することに重点を置いているが、意味的に一貫性のないラベルに強く適合している。
本稿では,コサイン類似性に加えて文脈類似性を最適化する,文脈損失と呼ばれる新しい計量学習手法を提案する。
実験により、提案した損失は騒音のラベル付けに頑健であり、列車データの大部分が保持されていない場合でも過度に適合する傾向が低いことを示す。
論文 参考訳(メタデータ) (2022-10-04T21:08:27Z) - On the Exploration of Incremental Learning for Fine-grained Image
Retrieval [45.48333682748607]
我々は,新たなカテゴリが時間とともに追加される場合に,細粒度画像検索の問題を漸進的に考慮する。
本稿では,検索性能の劣化を抑えるための漸進学習手法を提案する。
提案手法は,新しいクラスにおいて高い性能を保ちながら,元のクラスにおける破滅的な忘れを効果的に軽減する。
論文 参考訳(メタデータ) (2020-10-15T21:07:44Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Sharing Matters for Generalization in Deep Metric Learning [22.243744691711452]
本研究は,アノテーションやデータトレーニングを必要とせずに,クラスを分離した特徴を学習する方法を検討する。
我々のアプローチを新しいトリプルトサンプリング戦略として定式化することにより、最近のランキング損失フレームワークに容易に適用できる。
論文 参考訳(メタデータ) (2020-04-12T10:21:15Z) - Proxy Anchor Loss for Deep Metric Learning [47.832107446521626]
我々は、ペアとプロキシの両方の手法の利点を生かし、それらの制限を克服する新しいプロキシベースの損失を示す。
プロキシの使用により、私たちの損失は収束の速度を加速し、ノイズの多いラベルや外れ値に対して堅牢です。
提案手法は、4つの公開ベンチマークで評価され、損失をトレーニングした標準ネットワークは最先端の性能を達成し、最も高速に収束する。
論文 参考訳(メタデータ) (2020-03-31T02:05:27Z) - Embedding Expansion: Augmentation in Embedding Space for Deep Metric
Learning [17.19890778916312]
本稿では、組込み拡張と呼ばれる、ペアベースのメートル法学習損失に対する組込み空間における拡張手法を提案する。
その単純さと柔軟性のために、モデルのサイズ、トレーニング速度、最適化の難しさに影響を与えることなく、既存のメトリック学習損失に使用できる。
論文 参考訳(メタデータ) (2020-03-05T11:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。