論文の概要: Searching for Robustness: Loss Learning for Noisy Classification Tasks
- arxiv url: http://arxiv.org/abs/2103.00243v1
- Date: Sat, 27 Feb 2021 15:27:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:21:14.186610
- Title: Searching for Robustness: Loss Learning for Noisy Classification Tasks
- Title(参考訳): ロバストネスの探索:ノイズ分類タスクにおける損失学習
- Authors: Boyan Gao, Henry Gouk, Timothy M. Hospedales
- Abstract要約: テイラーを用いたフレキシブルな損失関数群をパラメタライズし、この空間におけるノイズロスの探索に進化的戦略を適用する。
その結果、ホワイトボックスの損失は、さまざまな下流タスクで効果的なノイズロバスト学習を可能にするシンプルで高速な「プラグアンドプレイ」モジュールを提供します。
- 参考スコア(独自算出の注目度): 81.70914107917551
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a "learning to learn" approach for automatically constructing
white-box classification loss functions that are robust to label noise in the
training data. We parameterize a flexible family of loss functions using Taylor
polynomials, and apply evolutionary strategies to search for noise-robust
losses in this space. To learn re-usable loss functions that can apply to new
tasks, our fitness function scores their performance in aggregate across a
range of training dataset and architecture combinations. The resulting
white-box loss provides a simple and fast "plug-and-play" module that enables
effective noise-robust learning in diverse downstream tasks, without requiring
a special training procedure or network architecture. The efficacy of our
method is demonstrated on a variety of datasets with both synthetic and real
label noise, where we compare favourably to previous work.
- Abstract(参考訳): トレーニングデータにおけるノイズのラベル付けに頑健なホワイトボックス分類損失関数を自動構築する「学習への学習」手法を提案する。
テイラー多項式を用いて柔軟な損失関数群をパラメータ化し、この空間におけるノイズ燃焼損失の探索に進化戦略を適用します。
新しいタスクに適用可能な再利用可能な損失関数を学ぶために、当社のフィットネス機能は、さまざまなトレーニングデータセットとアーキテクチャの組み合わせでパフォーマンスを集約的に評価します。
その結果、ホワイトボックスの損失は、特別なトレーニング手順やネットワークアーキテクチャを必要とせずに、さまざまな下流タスクで効果的なノイズロバスト学習を可能にするシンプルで高速な「プラグアンドプレイ」モジュールを提供します。
提案手法の有効性は, 合成ノイズと実ラベルノイズを併用した各種データセットで実証され, 先行研究と良好に比較できる。
関連論文リスト
- Fast and Efficient Local Search for Genetic Programming Based Loss
Function Learning [12.581217671500887]
本稿では,タスクとモデルに依存しない損失関数学習のためのメタラーニングフレームワークを提案する。
その結果, 学習した損失関数は, 収束性, サンプル効率, グラフ化, コンピュータビジョン, 自然言語処理問題に対する推論性能の向上をもたらすことがわかった。
論文 参考訳(メタデータ) (2024-03-01T02:20:04Z) - Combating Label Noise With A General Surrogate Model For Sample
Selection [84.61367781175984]
本稿では,視覚言語サロゲートモデルCLIPを用いて,雑音の多いサンプルを自動的にフィルタリングする手法を提案する。
提案手法の有効性を実世界および合成ノイズデータセットで検証した。
論文 参考訳(メタデータ) (2023-10-16T14:43:27Z) - Noise-Robust Loss Functions: Enhancing Bounded Losses for Large-Scale Noisy Data Learning [0.0]
大きな注釈付きデータセットには、必然的にノイズのあるラベルが含まれており、ラベルを覚えやすいようにディープニューラルネットワークをトレーニングする上で大きな課題となる。
ノイズ・ロバスト損失関数はこの問題に対処するための重要な戦略として現れてきたが、過度に適合しないロバスト損失関数を作成することは依然として困難である。
本稿では,ロジットバイアス(logit bias)と表される新しい手法を提案し,ロジットに正しいクラスの位置で実数$epsilon$を付加する。
論文 参考訳(メタデータ) (2023-06-08T18:38:55Z) - Dynamic Loss For Robust Learning [17.33444812274523]
本研究は,メタラーニングに基づく動的損失を学習プロセスで自動調整し,長い尾の雑音データから分類器を頑健に学習する手法を提案する。
本研究では,CIFAR-10/100,Animal-10N,ImageNet-LT,Webvisionなど,さまざまな種類のデータバイアスを持つ複数の実世界および合成データセットに対して,最先端の精度を実現する。
論文 参考訳(メタデータ) (2022-11-22T01:48:25Z) - Representation Learning for the Automatic Indexing of Sound Effects
Libraries [79.68916470119743]
タスク固有のがデータセットに依存しない表現は、クラス不均衡、一貫性のないクラスラベル、不十分なデータセットサイズなどのデータ問題にうまく対処できることを示す。
詳細な実験結果は、メトリック学習アプローチと異なるデータセット間の学習方法が表現効率に与える影響を示している。
論文 参考訳(メタデータ) (2022-08-18T23:46:13Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Learning to Rank for Active Learning: A Listwise Approach [36.72443179449176]
アクティブラーニングは、大量のデータを空腹のアプリケーションにラベル付けする作業を緩和する代替手段として登場した。
本研究では,単純なリストワイズ手法を用いて,損失予測モジュールの構造を再考する。
4つのデータセットに対する実験結果から,本手法は画像分類と回帰処理の両方において,最近の最先端の能動的学習手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2020-07-31T21:05:16Z) - Learning Not to Learn in the Presence of Noisy Labels [104.7655376309784]
ギャンブラーの損失と呼ばれる新しい種類の損失関数は、様々なレベルの汚職にまたがってノイズをラベル付けするのに強い堅牢性をもたらすことを示す。
この損失関数によるトレーニングは、ノイズのあるラベルを持つデータポイントでの学習を"維持"することをモデルに促すことを示す。
論文 参考訳(メタデータ) (2020-02-16T09:12:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。