論文の概要: Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood
- arxiv url: http://arxiv.org/abs/2312.10238v1
- Date: Fri, 15 Dec 2023 22:14:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:50:24.703854
- Title: Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood
- Title(参考訳): 局所的最大度を用いたクラス条件雑音の仮説検証
- Authors: Weisong Yang, Rafael Poyiadzi, Niall Twomey, Raul Santos Rodriguez
- Abstract要約: 教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
本稿では,本モデルが局所極大近似推定の積である場合,同様の手順を踏襲できることを示す。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広範な適用を可能にする。
- 参考スコア(独自算出の注目度): 1.8798171797988192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In supervised learning, automatically assessing the quality of the labels
before any learning takes place remains an open research question. In certain
particular cases, hypothesis testing procedures have been proposed to assess
whether a given instance-label dataset is contaminated with class-conditional
label noise, as opposed to uniform label noise. The existing theory builds on
the asymptotic properties of the Maximum Likelihood Estimate for parametric
logistic regression. However, the parametric assumptions on top of which these
approaches are constructed are often too strong and unrealistic in practice. To
alleviate this problem, in this paper we propose an alternative path by showing
how similar procedures can be followed when the underlying model is a product
of Local Maximum Likelihood Estimation that leads to more flexible
nonparametric logistic regression models, which in turn are less susceptible to
model misspecification. This different view allows for wider applicability of
the tests by offering users access to a richer model class. Similarly to
existing works, we assume we have access to anchor points which are provided by
the users. We introduce the necessary ingredients for the adaptation of the
hypothesis tests to the case of nonparametric logistic regression and
empirically compare against the parametric approach presenting both synthetic
and real-world case studies and discussing the advantages and limitations of
the proposed approach.
- Abstract(参考訳): 教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
特定のケースでは、与えられたインスタンスラベルデータセットが一様ラベルノイズではなく、クラス条件ラベルノイズで汚染されているかどうかを評価するための仮説テスト手順が提案されている。
既存の理論は、パラメトリックロジスティック回帰の最大度推定の漸近的性質に基づいている。
しかし、これらのアプローチが構築される上でのパラメトリックな仮定は、しばしば強力で非現実的なものである。
この問題を緩和するために,本論文では,モデルがより柔軟な非パラメトリックロジスティック回帰モデルをもたらす局所最大類似度推定の積である場合に,どのように類似した手順を追従できるかを示す代替経路を提案する。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広い適用性を可能にする。
既存の作業と同様に、ユーザが提供するアンカーポイントにアクセス可能であると仮定する。
本稿では,非パラメトリックロジスティック回帰の場合に仮説テストを適用するために必要な要素を導入し,合成と実世界のケーススタディを提示するパラメトリックアプローチと比較し,提案手法の利点と限界について考察する。
関連論文リスト
- Seeing Unseen: Discover Novel Biomedical Concepts via
Geometry-Constrained Probabilistic Modeling [53.7117640028211]
同定された問題を解決するために,幾何制約付き確率的モデリング処理を提案する。
構成された埋め込み空間のレイアウトに適切な制約を課すために、重要な幾何学的性質のスイートを組み込む。
スペクトルグラフ理論法は、潜在的な新規クラスの数を推定するために考案された。
論文 参考訳(メタデータ) (2024-03-02T00:56:05Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - A Tale of Sampling and Estimation in Discounted Reinforcement Learning [50.43256303670011]
割引平均推定問題に対して最小値の最小値を求める。
マルコフ過程の割引されたカーネルから直接サンプリングすることで平均を推定すると、説得力のある統計的性質が得られることを示す。
論文 参考訳(メタデータ) (2023-04-11T09:13:17Z) - Doubly Robust Counterfactual Classification [1.8907108368038217]
本研究では,仮説的(事実とは対照的に)なシナリオ下での意思決定のための新しいツールとして,カウンターファクトの分類について検討する。
本稿では, 一般対物分類器のための2次ロバストな非パラメトリック推定器を提案する。
論文 参考訳(メタデータ) (2023-01-15T22:04:46Z) - fAux: Testing Individual Fairness via Gradient Alignment [2.5329739965085785]
いずれの要件も持たない個別の公正性をテストするための新しいアプローチについて述べる。
提案手法は,合成データセットと実世界のデータセットの識別を効果的に行う。
論文 参考訳(メタデータ) (2022-10-10T21:27:20Z) - Self-Certifying Classification by Linearized Deep Assignment [65.0100925582087]
そこで我々は,PAC-Bayesリスク認定パラダイム内で,グラフ上のメトリックデータを分類するための新しい深層予測器のクラスを提案する。
PAC-Bayesの最近の文献とデータに依存した先行研究に基づいて、この手法は仮説空間上の後続分布の学習を可能にする。
論文 参考訳(メタデータ) (2022-01-26T19:59:14Z) - MINIMALIST: Mutual INformatIon Maximization for Amortized Likelihood
Inference from Sampled Trajectories [61.3299263929289]
シミュレーションベースの推論は、その可能性が実際に計算できない場合でもモデルのパラメータを学習することができる。
あるクラスのメソッドは、異なるパラメータでシミュレートされたデータを使用して、確率とエビデンス比の償却推定器を推定する。
モデルパラメータとシミュレーションデータ間の相互情報の観点から,本手法が定式化可能であることを示す。
論文 参考訳(メタデータ) (2021-06-03T12:59:16Z) - Calibrating Over-Parametrized Simulation Models: A Framework via
Eligibility Set [3.862247454265944]
厳密な頻繁な統計的保証を満たす校正手法を開発するための枠組みを開発する。
本手法は,書籍市場シミュレータのキャリブレーションへの応用を含む,いくつかの数値例で実証する。
論文 参考訳(メタデータ) (2021-05-27T00:59:29Z) - Statistical Hypothesis Testing for Class-Conditional Label Noise [3.6895394817068357]
この作業は、機械学習の実践者に質問に答えるためのツールを提供することを目的としています。
特に,あるインスタンスラベル対のデータセットが,クラス条件ラベルノイズによって破損したかどうかを確認するための仮説テストを提案する。
論文 参考訳(メタデータ) (2021-03-03T19:03:06Z) - Achieving Equalized Odds by Resampling Sensitive Attributes [13.114114427206678]
等価性の概念をほぼ満足する予測モデルを学習するためのフレキシブルなフレームワークを提案する。
この微分可能な関数は、モデルパラメータを等化奇数に向けて駆動するペナルティとして使用される。
本研究は,予測規則が本性質に反するか否かを検出するための公式な仮説テストを開発する。
論文 参考訳(メタデータ) (2020-06-08T00:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。