論文の概要: Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering
- arxiv url: http://arxiv.org/abs/2108.01431v1
- Date: Tue, 3 Aug 2021 12:15:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 17:54:50.398310
- Title: Noise-Resistant Deep Metric Learning with Probabilistic Instance
Filtering
- Title(参考訳): 確率型インスタンスフィルタを用いた雑音耐性深度学習
- Authors: Chang Liu, Han Yu, Boyang Li, Zhiqi Shen, Zhanning Gao, Peiran Ren,
Xuansong Xie, Lizhen Cui, Chunyan Miao
- Abstract要約: ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
DMLのための確率的ランク付けに基づくメモリを用いたインスタンス選択(PRISM)手法を提案する。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
- 参考スコア(独自算出の注目度): 59.286567680389766
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Noisy labels are commonly found in real-world data, which cause performance
degradation of deep neural networks. Cleaning data manually is labour-intensive
and time-consuming. Previous research mostly focuses on enhancing
classification models against noisy labels, while the robustness of deep metric
learning (DML) against noisy labels remains less well-explored. In this paper,
we bridge this important gap by proposing Probabilistic Ranking-based Instance
Selection with Memory (PRISM) approach for DML. PRISM calculates the
probability of a label being clean, and filters out potentially noisy samples.
Specifically, we propose three methods to calculate this probability: 1)
Average Similarity Method (AvgSim), which calculates the average similarity
between potentially noisy data and clean data; 2) Proxy Similarity Method
(ProxySim), which replaces the centers maintained by AvgSim with the proxies
trained by proxy-based method; and 3) von Mises-Fisher Distribution Similarity
(vMF-Sim), which estimates a von Mises-Fisher distribution for each data class.
With such a design, the proposed approach can deal with challenging DML
situations in which the majority of the samples are noisy. Extensive
experiments on both synthetic and real-world noisy dataset show that the
proposed approach achieves up to 8.37% higher Precision@1 compared with the
best performing state-of-the-art baseline approaches, within reasonable
training time.
- Abstract(参考訳): ノイズラベルは現実世界のデータによく見られ、ディープニューラルネットワークの性能劣化を引き起こす。
データを手動で掃除することは労働集約的で時間を要する。
従来の研究は主にノイズラベルに対する分類モデルの強化に重点を置いていたが、ディープ・メトリック・ラーニング(DML)のノイズラベルに対する堅牢性はいまだによく研究されていない。
本稿では,DMLに対する確率的ランク付けに基づくインスタンス選択(PRISM)手法を提案することにより,この重要なギャップを埋める。
PRISMはラベルがクリーンである確率を計算し、潜在的にノイズの多いサンプルをフィルタリングする。
具体的には,(1)潜在的にノイズの多いデータとクリーンデータの平均的類似度を計算する平均的類似度法(avgsim),2)avgsimが維持するセンターをプロキシベースで訓練されたプロキシで置き換えるプロキシ類似度法(proxysim),3)各データクラスに対するvon mises-fisher分布類似度を推定するvon mises-fisher distribution similarity(vmf-sim)の3つの方法を提案する。
このような設計により、提案手法は、サンプルの大多数がノイズの多いdmlの困難な状況に対処することができる。
合成および実世界のノイズデータセットの大規模な実験により、提案手法は適切なトレーニング時間内に、最高の最先端ベースラインアプローチと比較して最大8.37%精度が達成されている。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Federated Learning with Instance-Dependent Noisy Label [6.093214616626228]
FedBeatはIDN遷移行列(IDNTM)を用いたグローバルな統計的一貫した分類器の構築を目指している
CIFAR-10 と SVHN で行った実験により,提案手法が最先端手法を著しく上回っていることを確認した。
論文 参考訳(メタデータ) (2023-12-16T05:08:02Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - Knockoffs-SPR: Clean Sample Selection in Learning with Noisy Labels [56.81761908354718]
雑音ラベルを用いた学習のための,理論的に保証されたクリーンサンプル選択フレームワークを提案する。
Knockoffs-SPRは、標準的な教師付きトレーニングパイプラインのサンプル選択モジュールと見なすことができる。
さらに、ラベルなしデータとしてノイズデータのサポートを利用する半教師付きアルゴリズムと組み合わせる。
論文 参考訳(メタデータ) (2023-01-02T07:13:28Z) - Instance-dependent Label Distribution Estimation for Learning with Label Noise [20.479674500893303]
雑音遷移行列(NTM)推定はラベル雑音による学習に有望な手法である。
本稿では、画像分類のためのノイズラベルから学習するためのインスタンス依存ラベル分布推定(ILDE)手法を提案する。
提案手法は, 合成ノイズであっても実雑音であっても, 競合する全ての手法より優れていることを示す。
論文 参考訳(メタデータ) (2022-12-16T10:13:25Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Noise-resistant Deep Metric Learning with Ranking-based Instance
Selection [59.286567680389766]
PRISM(Probabilistic Ranking-based Instance Selection with Memory)と呼ばれるDMLの耐騒音トレーニング技術を提案する。
PRISMは、ニューラルネットワークの以前のバージョンから抽出された画像特徴との平均的類似性を用いて、ミニバッチ内のノイズデータを識別する。
メモリバンクが生み出す高い計算コストを緩和するために,個々のデータポイントをクラスセンタに置き換える高速化手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T03:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。