論文の概要: Adaptive Hierarchical Similarity Metric Learning with Noisy Labels
- arxiv url: http://arxiv.org/abs/2111.00006v1
- Date: Fri, 29 Oct 2021 02:12:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-05 04:34:22.765301
- Title: Adaptive Hierarchical Similarity Metric Learning with Noisy Labels
- Title(参考訳): 雑音ラベルを用いた適応的階層的類似度メトリック学習
- Authors: Jiexi Yan, Lei Luo, Cheng Deng and Heng Huang
- Abstract要約: 適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
- 参考スコア(独自算出の注目度): 138.41576366096137
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Metric Learning (DML) plays a critical role in various machine learning
tasks. However, most existing deep metric learning methods with binary
similarity are sensitive to noisy labels, which are widely present in
real-world data. Since these noisy labels often cause severe performance
degradation, it is crucial to enhance the robustness and generalization ability
of DML. In this paper, we propose an Adaptive Hierarchical Similarity Metric
Learning method. It considers two noise-insensitive information, \textit{i.e.},
class-wise divergence and sample-wise consistency. Specifically, class-wise
divergence can effectively excavate richer similarity information beyond binary
in modeling by taking advantage of Hyperbolic metric learning, while
sample-wise consistency can further improve the generalization ability of the
model using contrastive augmentation. More importantly, we design an adaptive
strategy to integrate this information in a unified view. It is noteworthy that
the new method can be extended to any pair-based metric loss. Extensive
experimental results on benchmark datasets demonstrate that our method achieves
state-of-the-art performance compared with current deep metric learning
approaches.
- Abstract(参考訳): ディープラーニング(DML)は、さまざまな機械学習タスクにおいて重要な役割を果たす。
しかし,2値類似性を持つ既存のディープメトリック学習手法の多くは,実世界のデータに広く見られるノイズラベルに敏感である。
これらのノイズラベルは、しばしば深刻な性能劣化を引き起こすため、DMLの堅牢性と一般化能力を高めることが重要である。
本稿では,適応型階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、‘textit{i.e.}, class-wise divergence, sample-wise consistency を考える。
特に、クラス毎の分岐は双曲的メトリック学習を活用し、モデリングにおいて二項を超えてよりリッチな類似性情報を効果的に抽出することができるが、サンプル毎の一貫性はコントラスト拡張を用いたモデルの一般化能力をさらに向上させることができる。
さらに重要なことは、この情報を統一的な視点に統合するための適応戦略を設計することです。
新しいメソッドが任意のペアベースのメトリック損失に拡張できることは注目に値する。
ベンチマークデータセットの広範な実験結果から,本手法が現在のディープラーニング手法と比較して最先端のパフォーマンスを達成できることが分かる。
関連論文リスト
- Dual-Decoupling Learning and Metric-Adaptive Thresholding for Semi-Supervised Multi-Label Learning [81.83013974171364]
半教師付きマルチラベル学習(SSMLL)は、正確なマルチラベルアノテーションを収集するコストを削減するために、ラベルのないデータを活用する強力なフレームワークである。
半教師付き学習とは異なり、インスタンスに含まれる複数のセマンティクスのため、SSMLLの擬似ラベルとして最も確率の高いラベルを選択することはできない。
本稿では,高品質な擬似ラベルを生成するための二重パースペクティブ手法を提案する。
論文 参考訳(メタデータ) (2024-07-26T09:33:53Z) - Relation Modeling and Distillation for Learning with Noisy Labels [4.556974104115929]
本稿では,自己教師型学習を通して,サンプル間の関係をモデル化する関係モデリングと蒸留の枠組みを提案する。
提案手法は,ノイズの多いデータに対する識別表現を学習し,既存の手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T01:47:27Z) - Intra-class Adaptive Augmentation with Neighbor Correction for Deep
Metric Learning [99.14132861655223]
深層学習のためのクラス内適応拡張(IAA)フレームワークを提案する。
クラスごとのクラス内変動を合理的に推定し, 適応型合成試料を生成し, 硬質試料の採掘を支援する。
本手法は,検索性能の最先端手法を3%~6%向上させる。
論文 参考訳(メタデータ) (2022-11-29T14:52:38Z) - Metric Learning as a Service with Covariance Embedding [7.5989847759545155]
メトリック学習は、クラス内およびクラス間の類似性を最大化し、最小化する。
既存のモデルは、分離可能な埋め込み空間を得るために主に距離測度に依存する。
高性能なディープラーニングアプリケーションのためのサービスとしてメトリック学習を有効にするためには、クラス間の関係も賢明に扱うべきだ、と我々は主張する。
論文 参考訳(メタデータ) (2022-11-28T10:10:59Z) - Dynamic Loss For Robust Learning [17.33444812274523]
本研究は,メタラーニングに基づく動的損失を学習プロセスで自動調整し,長い尾の雑音データから分類器を頑健に学習する手法を提案する。
本研究では,CIFAR-10/100,Animal-10N,ImageNet-LT,Webvisionなど,さまざまな種類のデータバイアスを持つ複数の実世界および合成データセットに対して,最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-11-22T01:48:25Z) - Learning with Neighbor Consistency for Noisy Labels [69.83857578836769]
特徴空間におけるトレーニング例間の類似性を利用した雑音ラベルから学習する手法を提案する。
合成(CIFAR-10, CIFAR-100)とリアル(mini-WebVision, Clothing1M, mini-ImageNet-Red)の両方のノイズを評価するデータセットの評価を行った。
論文 参考訳(メタデータ) (2022-02-04T15:46:27Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - It Takes Two to Tango: Mixup for Deep Metric Learning [16.60855728302127]
最先端の手法は、主に高度な損失関数や鉱業戦略に焦点を当てている。
Mixupは、2つ以上のサンプルと対応するターゲットラベルを同時に補間する強力なデータ拡張アプローチである。
入力、中間表現、埋め込みを対象ラベルと組み合わせることで、表現を著しく改善し、4つのベンチマークデータセットにおける最先端のメトリック学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T11:20:03Z) - Meta Transition Adaptation for Robust Deep Learning with Noisy Labels [61.8970957519509]
本研究では,新しいメタ遷移学習戦略を提案する。
具体的には、クリーンなラベル付きメタデータの小さなセットのサウンドガイダンスにより、ノイズ遷移行列と分類器パラメータを相互に改善することができる。
本手法は, 従来技術よりも頑健な性能で, 遷移行列をより正確に抽出することができる。
論文 参考訳(メタデータ) (2020-06-10T07:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。