論文の概要: Statistical Hypothesis Testing for Class-Conditional Label Noise
- arxiv url: http://arxiv.org/abs/2103.02630v1
- Date: Wed, 3 Mar 2021 19:03:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-05 14:54:43.844800
- Title: Statistical Hypothesis Testing for Class-Conditional Label Noise
- Title(参考訳): クラス条件ラベル雑音の統計的仮説検定
- Authors: Rafael Poyiadzi, Weisong Yang, Niall Twomey, Raul Santos-Rodriguez
- Abstract要約: この作業は、機械学習の実践者に質問に答えるためのツールを提供することを目的としています。
特に,あるインスタンスラベル対のデータセットが,クラス条件ラベルノイズによって破損したかどうかを確認するための仮説テストを提案する。
- 参考スコア(独自算出の注目度): 3.6895394817068357
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we aim to provide machine learning practitioners with tools to
answer the question: is there class-conditional flipping noise in my labels? In
particular, we present hypothesis tests to reliably check whether a given
dataset of instance-label pairs has been corrupted with class-conditional label
noise. While previous works explore the direct estimation of the noise rates,
this is known to be hard in practice and does not offer a real understanding of
how trustworthy the estimates are. These methods typically require anchor
points - examples whose true posterior is either 0 or 1. Differently, in this
paper we assume we have access to a set of anchor points whose true posterior
is approximately 1/2. The proposed hypothesis tests are built upon the
asymptotic properties of Maximum Likelihood Estimators for Logistic Regression
models and accurately distinguish the presence of class-conditional noise from
uniform noise. We establish the main properties of the tests, including a
theoretical and empirical analysis of the dependence of the power on the test
on the training sample size, the number of anchor points, the difference of the
noise rates and the use of realistic relaxed anchors.
- Abstract(参考訳): この作業では、機械学習の実践者に質問に答えるためのツールを提供することを目的としています。
特に,与えられたインスタンスラベルペアのデータセットがクラス条件ラベルノイズで破損しているかどうかを確実に確認するための仮説テストを行う。
以前の研究では、ノイズレートの直接的な推定を探っているが、これは実際に難しいことが知られており、見積もりの信頼性について実際の理解を提供していない。
これらの手法は典型的にはアンカーポイントを必要とする - 真の後続が 0 または 1 である例。
異なることに、この論文では、真の後方が約1/2のアンカー点の集合にアクセスできると仮定する。
提案する仮説実験は,ロジスティック回帰モデルにおける最大度推定器の漸近特性に基づき,クラス条件雑音の存在を一様雑音と正確に区別する。
私達は訓練のサンプルのサイズ、アンカー点の数、騒音率の相違および現実的なリラックスしたアンカーの使用のテストへの力の依存の理論的で、経験的な分析を含むテストの主要な特性を、確立します。
関連論文リスト
- Mitigating LLM Hallucinations via Conformal Abstention [70.83870602967625]
我々は,大言語モデルが一般ドメインでの応答をいつ無視すべきかを決定するための,原則化された手順を開発する。
我々は、幻覚率(エラー率)の厳密な理論的保証の恩恵を受けるため、共形予測手法を活用して、禁忌手順を開発する。
実験によって得られた共形禁忌法は, 種々の閉書, オープンドメイン生成質問応答データセットに, 幻覚率を確実に拘束する。
論文 参考訳(メタデータ) (2024-04-04T11:32:03Z) - Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood [1.8798171797988192]
教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
本稿では,本モデルが局所極大近似推定の積である場合,同様の手順を踏襲できることを示す。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広範な適用を可能にする。
論文 参考訳(メタデータ) (2023-12-15T22:14:58Z) - Robust Online Classification: From Estimation to Denoising [14.535583931446807]
一般仮説クラスを用いて,特徴のオンライン分類をラベルに分類する。
観測されたノイズラベルとノイズレス特徴を用いて予測を行う。
性能は、真のラベルと比較する場合、ミニマックスリスクによって測定される。
論文 参考訳(メタデータ) (2023-09-04T16:17:39Z) - Centrality and Consistency: Two-Stage Clean Samples Identification for
Learning with Instance-Dependent Noisy Labels [87.48541631675889]
本稿では,2段階のクリーンサンプル識別手法を提案する。
まず,クリーンサンプルの早期同定にクラスレベルの特徴クラスタリング手法を用いる。
次に, 基底真理クラス境界に近い残余のクリーンサンプルについて, 一貫性に基づく新しい分類法を提案する。
論文 参考訳(メタデータ) (2022-07-29T04:54:57Z) - Uncertainty-Aware Learning Against Label Noise on Imbalanced Datasets [23.4536532321199]
不整合データセットのラベルノイズを処理するための不確かさを意識したラベル補正フレームワークを提案する。
本研究では,不均衡なデータセットのラベルノイズを処理するために,不確かさを意識したラベル補正フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T11:35:55Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Label noise detection under the Noise at Random model with ensemble
filters [5.994719700262245]
本研究では、2つの異なる雑音モデルの下でのアンサンブルノイズ検出の性能について検討する。
データセットで観測される全雑音レベルが変化するため,クラス分布がノイズ検出性能に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-12-02T21:49:41Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z) - Robustness of Accuracy Metric and its Inspirations in Learning with
Noisy Labels [51.66448070984615]
十分な数の雑音サンプルに対してトレーニング精度を最大化すると,ほぼ最適な分類器が得られることを示す。
検証のために、ノイズの多い検証セットが信頼できることを証明し、モデル選択のクリティカルな要求に対処する。
理論結果に動機づけられて,ノイズラベルをトレーニングしたモデルの特徴付けを行い,ノイズ検証セットの有用性を検証する。
論文 参考訳(メタデータ) (2020-12-08T03:37:47Z) - Confidence Scores Make Instance-dependent Label-noise Learning Possible [129.84497190791103]
ノイズのあるラベルで学習する際、そのラベルはノイズモデルと呼ばれる遷移分布に従ってランダムに他のクラスに移動することができる。
我々は、各インスタンスラベル対に信頼スコアを付与する、信頼スコア付きインスタンス依存ノイズ(CSIDN)を導入する。
信頼性スコアの助けを借りて、各インスタンスの遷移分布を推定できる。
論文 参考訳(メタデータ) (2020-01-11T16:15:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。