論文の概要: Improving Deep Metric Learning with Virtual Classes and Examples Mining
- arxiv url: http://arxiv.org/abs/2006.06611v1
- Date: Thu, 11 Jun 2020 17:09:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 14:07:29.501333
- Title: Improving Deep Metric Learning with Virtual Classes and Examples Mining
- Title(参考訳): 仮想クラスと実例によるDeep Metric Learningの改善
- Authors: Pierre Jacob and David Picard and Aymeric Histace and Edouard Klein
- Abstract要約: MIRAGEは、生成した例から完全に構成された仮想クラスに依存する世代ベースの手法である。
仮想クラスが一般的なデータセットの結果を大幅に改善できることを実証的に示す。
- 参考スコア(独自算出の注目度): 23.083900077464442
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In deep metric learning, the training procedure relies on sampling
informative tuples. However, as the training procedure progresses, it becomes
nearly impossible to sample relevant hard negative examples without proper
mining strategies or generation-based methods. Recent work on hard negative
generation have shown great promises to solve the mining problem. However, this
generation process is difficult to tune and often leads to incorrectly labelled
examples. To tackle this issue, we introduce MIRAGE, a generation-based method
that relies on virtual classes entirely composed of generated examples that act
as buffer areas between the training classes. We empirically show that virtual
classes significantly improve the results on popular datasets (Cub-200-2011,
Cars-196 and Stanford Online Products) compared to other generation methods.
- Abstract(参考訳): ディープメトリック学習では、トレーニング手順は情報的タプルのサンプリングに依存する。
しかし, トレーニング手順が進むにつれて, 適切な鉱業戦略や生成法を使わずに, 関連する負のサンプルを採取することはほぼ不可能となる。
近年の強陰性発生の研究は、鉱業問題の解決を大いに約束している。
しかし、この生成プロセスはチューニングが難しく、しばしば誤ってラベル付けされた例に繋がる。
この問題に対処するために、トレーニングクラス間のバッファ領域として機能する生成例を全て生成した仮想クラスに依存する世代ベースのメソッドであるMIRAGEを紹介する。
仮想クラスが一般的なデータセット(cub-200-2011,cars-196,stanford online products)の結果を,他の世代の方法と比較して著しく改善することを示す。
関連論文リスト
- Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Late Stopping: Avoiding Confidently Learning from Mislabeled Examples [61.00103151680946]
そこで本研究では,DNNの長期学習プロセスを通じて,本質的な頑健な学習能力を生かした新しいフレームワークであるLatlas Stoppingを提案する。
誤ラベルとクリーンな例は、それらが一貫して正しく分類されるために必要なエポックの数に相違があることを実証的に観察する。
ベンチマークシミュレーションと実世界のノイズデータセットによる実験結果から,提案手法は最先端の手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2023-08-26T12:43:25Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - When does loss-based prioritization fail? [18.982933391138268]
ノイズや破損したデータのあるシナリオでは,損失に基づく加速度法が劣化することを示す。
例題の難易度は、ノイズを他のタイプの難易度例から正しく分離する必要がある。
論文 参考訳(メタデータ) (2021-07-16T07:23:15Z) - Exponentiated Gradient Reweighting for Robust Training Under Label Noise
and Beyond [21.594200327544968]
ノイズの多い例から学ぶための柔軟なアプローチを提案する。
具体的には、各トレーニング例を専門家として扱い、すべての例に分散を維持します。
他の関連する手法とは異なり、このアプローチは損失関数の一般的なクラスを扱い、幅広いノイズタイプやアプリケーションに適用できる。
論文 参考訳(メタデータ) (2021-04-03T22:54:49Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Minority Class Oversampling for Tabular Data with Deep Generative Models [4.976007156860967]
オーバーサンプリングによる非バランスな分類タスクの性能向上を図るために, 深層生成モデルを用いて現実的なサンプルを提供する能力について検討した。
実験の結果,サンプリング手法は品質に影響を与えないが,実行環境は様々であることがわかった。
また、性能指標の点でも改善が重要であるが、絶対的な点では小さな点がしばしば見られる。
論文 参考訳(メタデータ) (2020-05-07T21:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。