論文の概要: Smooth Proxy-Anchor Loss for Noisy Metric Learning
- arxiv url: http://arxiv.org/abs/2006.05142v1
- Date: Tue, 9 Jun 2020 09:33:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 15:14:06.328619
- Title: Smooth Proxy-Anchor Loss for Noisy Metric Learning
- Title(参考訳): 雑音量学習のための滑らかなプロキシアンカー損失
- Authors: Carlos Roig and David Varas and Issey Masuda and Juan Carlos Riveiro
and Elisenda Bou-Balust
- Abstract要約: 本稿では,Smooth Proxy-Anchor Lossを用いて,ノイズラベルの存在を克服できるメトリクス学習手法を提案する。
提案手法の性能と現状のMetric Learningの損失(プロキシベースとペアベース)を比較した。
その結果、Recall@1ではMultiSimilarityとProxy-Anchor Lossに関して2.63と3.29の改善が見られた。
- 参考スコア(独自算出の注目度): 2.267916014951237
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many industrial applications use Metric Learning as a way to circumvent
scalability issues when designing systems with a high number of classes.
Because of this, this field of research is attracting a lot of interest from
the academic and non-academic communities. Such industrial applications require
large-scale datasets, which are usually generated with web data and, as a
result, often contain a high number of noisy labels. While Metric Learning
systems are sensitive to noisy labels, this is usually not tackled in the
literature, that relies on manually annotated datasets.
In this work, we propose a Metric Learning method that is able to overcome
the presence of noisy labels using our novel Smooth Proxy-Anchor Loss. We also
present an architecture that uses the aforementioned loss with a two-phase
learning procedure. First, we train a confidence module that computes sample
class confidences. Second, these confidences are used to weight the influence
of each sample for the training of the embeddings. This results in a system
that is able to provide robust sample embeddings.
We compare the performance of the described method with current
state-of-the-art Metric Learning losses (proxy-based and pair-based), when
trained with a dataset containing noisy labels. The results showcase an
improvement of 2.63 and 3.29 in Recall@1 with respect to MultiSimilarity and
Proxy-Anchor Loss respectively, proving that our method outperforms the
state-of-the-art of Metric Learning in noisy labeling conditions.
- Abstract(参考訳): 多くの産業アプリケーションは、多数のクラスを持つシステムを設計する際にスケーラビリティの問題を回避する手段としてメトリックラーニングを使用している。
このため、この研究分野は学術的・非学術的なコミュニティから多くの関心を集めている。
このような産業アプリケーションは、通常Webデータで生成される大規模なデータセットを必要とし、その結果、しばしば大量のノイズラベルを含む。
メトリック学習システムはノイズの多いラベルに敏感であるが、これは通常、手動で注釈付きデータセットに依存する文学では取り組まれない。
本研究では,Smooth Proxy-Anchor Lossを用いて,ノイズのあるラベルの存在を克服できるメトリクス学習手法を提案する。
また,上記の損失を2相学習手順で利用するアーキテクチャを提案する。
まず、サンプルクラスの信頼度を計算する信頼モジュールをトレーニングします。
第2に、これらの信頼性は、埋め込みのトレーニングに各サンプルの影響を重み付けするために使用される。
これにより、堅牢なサンプル埋め込みを提供するシステムが得られる。
ノイズラベルを含むデータセットを用いて学習した場合,提案手法の性能と現状のMetric Learning損失(プロキシベースとペアベース)を比較した。
これらの結果から,recall@1の2.63および3.29は,多相性およびプロキシアンカー損失に対して改善し,ノイズラベル条件下でのメトリック学習の最先端を上回った。
関連論文リスト
- Co-Learning Meets Stitch-Up for Noisy Multi-label Visual Recognition [70.00984078351927]
本稿では,多ラベル分類と長期学習の特徴に基づく雑音の低減に焦点をあてる。
よりクリーンなサンプルを合成し,マルチラベルノイズを直接低減するStitch-Up拡張を提案する。
ヘテロジニアス・コラーニング・フレームワークは、長い尾の分布とバランスの取れた分布の不整合を活用するためにさらに設計されている。
論文 参考訳(メタデータ) (2023-07-03T09:20:28Z) - FedNoisy: Federated Noisy Label Learning Benchmark [53.73816587601204]
フェデレーション学習は、クライアントからの機密データを集約することなく、分散学習で人気を集めている。
データ分離の分散と分離の性質は、データ品質によって複雑になり、ノイズの多いラベルに対してより脆弱になる可能性がある。
私たちは、研究者が潜在的にフェデレートされたノイズ設定を十分に調査するのに役立つ、最初の標準ベンチマークを提供しています。
論文 参考訳(メタデータ) (2023-06-20T16:18:14Z) - SLaM: Student-Label Mixing for Distillation with Unlabeled Examples [15.825078347452024]
学生ラベル混合(SLaM)と呼ばれる未ラベル例を用いた知識蒸留の原理的手法を提案する。
SLaMは、いくつかの標準ベンチマークで評価することで、従来のアプローチよりも一貫して改善されている。
ランダムな分類雑音下でハーフスペースを学習する際の最もよく知られたサンプル複雑性を改善するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-08T00:14:44Z) - Representation Learning for the Automatic Indexing of Sound Effects
Libraries [79.68916470119743]
タスク固有のがデータセットに依存しない表現は、クラス不均衡、一貫性のないクラスラベル、不十分なデータセットサイズなどのデータ問題にうまく対処できることを示す。
詳細な実験結果は、メトリック学習アプローチと異なるデータセット間の学習方法が表現効率に与える影響を示している。
論文 参考訳(メタデータ) (2022-08-18T23:46:13Z) - Towards Harnessing Feature Embedding for Robust Learning with Noisy
Labels [44.133307197696446]
ディープニューラルネットワーク(DNN)の記憶効果は,近年のラベルノイズ学習法において重要な役割を担っている。
ラベルノイズを用いたディープラーニングのための新しい特徴埋め込み方式, LabEl Noise Dilution (LEND) を提案する。
論文 参考訳(メタデータ) (2022-06-27T02:45:09Z) - Adaptive Hierarchical Similarity Metric Learning with Noisy Labels [138.41576366096137]
適応的階層的類似度メトリック学習法を提案する。
ノイズに敏感な2つの情報、すなわち、クラスワイドのばらつきとサンプルワイドの一貫性を考える。
提案手法は,現在の深層学習手法と比較して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2021-10-29T02:12:18Z) - It Takes Two to Tango: Mixup for Deep Metric Learning [16.60855728302127]
最先端の手法は、主に高度な損失関数や鉱業戦略に焦点を当てている。
Mixupは、2つ以上のサンプルと対応するターゲットラベルを同時に補間する強力なデータ拡張アプローチである。
入力、中間表現、埋め込みを対象ラベルと組み合わせることで、表現を著しく改善し、4つのベンチマークデータセットにおける最先端のメトリック学習方法より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-09T11:20:03Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z) - Noisy Labels Can Induce Good Representations [53.47668632785373]
アーキテクチャがノイズラベルによる学習に与える影響について検討する。
ノイズラベルを用いたトレーニングは,モデルが一般化に乏しい場合でも,有用な隠れ表現を誘導できることを示す。
この発見は、騒々しいラベルで訓練されたモデルを改善する簡単な方法につながります。
論文 参考訳(メタデータ) (2020-12-23T18:58:05Z) - EvidentialMix: Learning with Combined Open-set and Closed-set Noisy
Labels [30.268962418683955]
開集合ラベルと閉集合ラベルを組み合わせた雑音ラベル問題の新しい変種について検討する。
その結果,従来の最先端手法よりも優れた分類結果と特徴表現が得られた。
論文 参考訳(メタデータ) (2020-11-11T11:15:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。