論文の概要: Lifting Weak Supervision To Structured Prediction
- arxiv url: http://arxiv.org/abs/2211.13375v1
- Date: Thu, 24 Nov 2022 02:02:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 14:21:00.586058
- Title: Lifting Weak Supervision To Structured Prediction
- Title(参考訳): 弱い監督を構造化予測へ持ち上げる
- Authors: Harit Vishwakarma, Nicholas Roberts, Frederic Sala
- Abstract要約: 弱監督 (WS) は、容易に得られるがノイズの多いラベル推定を集約することで擬似ラベルを生成する、豊富な手法のセットである。
擬ユークリッド埋め込みとテンソル分解に基づく弱監督手法を提案する。
ノイズのあるラベルを持つ構造化予測において頑健性を保証するとみなすこの結果のいくつかは、独立した関心事である可能性がある。
- 参考スコア(独自算出の注目度): 12.219011764895853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Weak supervision (WS) is a rich set of techniques that produce pseudolabels
by aggregating easily obtained but potentially noisy label estimates from a
variety of sources. WS is theoretically well understood for binary
classification, where simple approaches enable consistent estimation of
pseudolabel noise rates. Using this result, it has been shown that downstream
models trained on the pseudolabels have generalization guarantees nearly
identical to those trained on clean labels. While this is exciting, users often
wish to use WS for structured prediction, where the output space consists of
more than a binary or multi-class label set: e.g. rankings, graphs, manifolds,
and more. Do the favorable theoretical properties of WS for binary
classification lift to this setting? We answer this question in the affirmative
for a wide range of scenarios. For labels taking values in a finite metric
space, we introduce techniques new to weak supervision based on
pseudo-Euclidean embeddings and tensor decompositions, providing a
nearly-consistent noise rate estimator. For labels in constant-curvature
Riemannian manifolds, we introduce new invariants that also yield consistent
noise rate estimation. In both cases, when using the resulting pseudolabels in
concert with a flexible downstream model, we obtain generalization guarantees
nearly identical to those for models trained on clean data. Several of our
results, which can be viewed as robustness guarantees in structured prediction
with noisy labels, may be of independent interest. Empirical evaluation
validates our claims and shows the merits of the proposed method.
- Abstract(参考訳): 弱監督 (WS) は、容易に得られるが様々な情報源からのノイズの多いラベル推定を集約することで擬似ラベルを生成する、豊富な手法である。
WS は二項分類において理論的によく理解されており、単純なアプローチは擬似ラベル雑音率を一貫した推定を可能にする。
この結果から,疑似ラベルでトレーニングした下流モデルでは,クリーンラベルでトレーニングしたモデルとほぼ同一の一般化保証が得られた。
これはエキサイティングだが、ユーザはしばしば、出力空間がバイナリやマルチクラスのラベルセット(例えば、ランキング、グラフ、多様体など)以上のもので構成されている構造化予測にWSを使いたがる。
この設定への二項分類リフトに対するWSの好ましい理論的特性は?
我々は、幅広いシナリオについて肯定的にこの質問に答える。
有限距離空間における値を取るラベルに対しては、擬似ユークリッド埋め込みやテンソル分解に基づく弱い監督を行う新しい手法を導入し、ほぼ一貫性のあるノイズ率推定器を提供する。
定曲率リーマン多様体のラベルに対しては、一貫した雑音率推定をもたらす新しい不変量を導入する。
いずれの場合も,得られた擬似ラベルをフレキシブルな下流モデルと併用すると,クリーンデータでトレーニングされたモデルとほぼ同一の一般化保証が得られる。
ノイズラベル付き構造化予測では頑健性保証と見なせる結果のいくつかは、独立した関心事である可能性がある。
実証的評価は我々の主張を検証し,提案手法のメリットを示す。
関連論文リスト
- Extracting Clean and Balanced Subset for Noisy Long-tailed Classification [66.47809135771698]
そこで我々は,分布マッチングの観点から,クラスプロトタイプを用いた新しい擬似ラベリング手法を開発した。
手動で特定の確率尺度を設定することで、ノイズと長い尾を持つデータの副作用を同時に減らすことができる。
本手法は, クリーンなラベル付きクラスバランスサブセットを抽出し, ラベルノイズ付きロングテール分類において, 効果的な性能向上を実現する。
論文 参考訳(メタデータ) (2024-04-10T07:34:37Z) - Data-Driven Estimation of the False Positive Rate of the Bayes Binary
Classifier via Soft Labels [25.40796153743837]
本稿では,与えられたデータセットからベイズ分類器の誤り陽性率(FPR)を推定する。
我々は,デノナイジング手法とNadaraya-Watson推定器を利用した効果的なFPR推定器を開発した。
論文 参考訳(メタデータ) (2024-01-27T20:41:55Z) - Generating Unbiased Pseudo-labels via a Theoretically Guaranteed
Chebyshev Constraint to Unify Semi-supervised Classification and Regression [57.17120203327993]
分類におけるしきい値と擬似ラベルプロセス(T2L)は、ラベルの品質を決定するために信頼性を使用する。
本質的には、レグレッションは高品質なラベルを生成するためにバイアスのない方法も必要である。
チェビシェフの不等式に基づく不偏ラベルを生成するための理論的に保証された制約を提案する。
論文 参考訳(メタデータ) (2023-11-03T08:39:35Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Robust Point Cloud Segmentation with Noisy Annotations [32.991219357321334]
クラスラベルは、実世界のデータセットのインスタンスレベルとバウンダリレベルの両方で誤ってラベル付けされることが多い。
我々は、Point Noise-Adaptive Learningフレームワークを提案することで、インスタンスレベルのラベルノイズを解決するのをリードする。
我々のフレームワークはベースラインを大幅に上回り、完全にクリーンなデータでトレーニングされた上限に匹敵する。
論文 参考訳(メタデータ) (2022-12-06T18:59:58Z) - Neighbour Consistency Guided Pseudo-Label Refinement for Unsupervised
Person Re-Identification [80.98291772215154]
教師なしの人物再識別(ReID)は、アノテーションを使わずに人物検索のための識別的アイデンティティの特徴を学習することを目的としている。
近年の進歩はクラスタリングに基づく擬似ラベルを活用することで実現されている。
本稿では, Pseudo Label Refinement フレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-30T09:39:57Z) - Neighborhood Collective Estimation for Noisy Label Identification and
Correction [92.20697827784426]
ノイズラベルを用いた学習(LNL)は,ノイズラベルに対するモデルオーバーフィットの効果を軽減し,モデル性能と一般化を改善するための戦略を設計することを目的としている。
近年の進歩は、個々のサンプルのラベル分布を予測し、ノイズ検証とノイズラベル補正を行い、容易に確認バイアスを生じさせる。
提案手法では, 候補サンプルの予測信頼性を, 特徴空間近傍と対比することにより再推定する。
論文 参考訳(メタデータ) (2022-08-05T14:47:22Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Error-Bounded Correction of Noisy Labels [17.510654621245656]
ノイズのある分類器の予測は、トレーニングデータのラベルがクリーンかどうかを示す良い指標であることを示す。
理論的結果に基づいて,雑音分類器の予測に基づいてラベルを補正する新しいアルゴリズムを提案する。
ラベル補正アルゴリズムをディープニューラルネットワークのトレーニングや,複数の公開データセット上で優れたテスト性能を実現するトレーニングモデルに組み込む。
論文 参考訳(メタデータ) (2020-11-19T19:23:23Z) - GANs for learning from very high class conditional noisy labels [1.6516902135723865]
我々は、GAN(Generative Adversarial Networks)を用いて、バイナリ分類のためのクラス条件付きラベルノイズ(CCN)ロバストなスキームを設計する。
まず、ノイズラベル付きデータと0.1%または1%クリーンラベルから正しいラベル付きデータポイントのセットを生成する。
論文 参考訳(メタデータ) (2020-10-19T15:01:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。