論文の概要: Constrained Labeling for Weakly Supervised Learning
- arxiv url: http://arxiv.org/abs/2009.07360v5
- Date: Sat, 29 May 2021 19:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 05:22:31.194206
- Title: Constrained Labeling for Weakly Supervised Learning
- Title(参考訳): 弱教師付き学習のための制約付きラベリング
- Authors: Chidubem Arachie, Bert Huang
- Abstract要約: 本稿では、弱い監視信号を組み合わせるための単純なデータフリーアプローチを提案する。
我々の手法は効率よく安定しており、数回の降下を繰り返して収束する。
本手法は,様々なテキスト・画像分類タスクにおいて,他の弱い監督手法よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 15.365232702938677
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Curation of large fully supervised datasets has become one of the major
roadblocks for machine learning. Weak supervision provides an alternative to
supervised learning by training with cheap, noisy, and possibly correlated
labeling functions from varying sources. The key challenge in weakly supervised
learning is combining the different weak supervision signals while navigating
misleading correlations in their errors. In this paper, we propose a simple
data-free approach for combining weak supervision signals by defining a
constrained space for the possible labels of the weak signals and training with
a random labeling within this constrained space. Our method is efficient and
stable, converging after a few iterations of gradient descent. We prove
theoretical conditions under which the worst-case error of the randomized label
decreases with the rank of the linear constraints. We show experimentally that
our method outperforms other weak supervision methods on various text- and
image-classification tasks.
- Abstract(参考訳): 大規模な完全教師付きデータセットのキュレーションは、機械学習の主要な障害のひとつとなっている。
弱監督は、様々なソースから、安価で騒々しく、おそらく相関のあるラベル付け機能をトレーニングすることで教師あり学習の代替を提供する。
弱教師付き学習における鍵となる課題は、異なる弱監督信号を組み合わせて、誤りを導いた相関をナビゲートすることである。
本稿では,弱信号のラベル可能な制約空間を定義し,この制約空間内のランダムラベルによるトレーニングを行うことにより,弱監視信号を結合するための簡単なデータフリーな手法を提案する。
本手法は,数回の勾配降下を繰り返して収束し,効率的で安定である。
ランダム化されたラベルの最悪のケースエラーが線形制約のランクによって減少する理論条件を実証する。
本手法は,様々なテキスト分類や画像分類タスクにおいて,他の弱い監督手法よりも優れていることを示す。
関連論文リスト
- Weakly Supervised Label Learning Flows [8.799674132085931]
弱教師付き学習問題の一般的なフレームワークであるラベル学習フロー(LLF)を開発した。
本手法は正規化フローに基づく生成モデルである。
実験結果から,本手法は比較した多くのベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-02-19T18:31:44Z) - SoftMatch: Addressing the Quantity-Quality Trade-off in Semi-supervised
Learning [101.86916775218403]
本稿では, サンプル重み付けを統一した定式化により, 一般的な擬似ラベル法を再検討する。
トレーニング中の擬似ラベルの量と質を両立させることでトレードオフを克服するSoftMatchを提案する。
実験では、画像、テキスト、不均衡な分類など、さまざまなベンチマークで大幅に改善されている。
論文 参考訳(メタデータ) (2023-01-26T03:53:25Z) - Losses over Labels: Weakly Supervised Learning via Direct Loss
Construction [71.11337906077483]
プログラム可能な弱い監視は、機械学習のパラダイムとして成長している。
ラベルの中間ステップを経由することなく,直接損失を発生させるため,ラベルのロバスト・オーバー・ラベル(Losses over Labels, LoL)を提案する。
いくつかのベンチマークテキストおよび画像分類タスクにおいて、LoLは既存の弱い監督手法を改善していることを示す。
論文 参考訳(メタデータ) (2022-12-13T22:29:14Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Data Consistency for Weakly Supervised Learning [15.365232702938677]
機械学習モデルのトレーニングには、大量の人間が注釈付けしたデータを使用する。
本稿では、雑音ラベル、すなわち弱い信号を処理する新しい弱監督アルゴリズムを提案する。
本研究では,テキストと画像の分類作業において,最先端の弱い監督手法を著しく上回っていることを示す。
論文 参考訳(メタデータ) (2022-02-08T16:48:19Z) - Barely-Supervised Learning: Semi-Supervised Learning with very few
labeled images [16.905389887406894]
我々は、画像の弱い拡張バージョンに依存して監視信号を得る、最先端の半教師方式 FixMatch の振舞いを深く分析する。
疑似ラベルを高い信頼性で予測できない場合、トレーニング信号の欠如により、ほとんど監督されていないシナリオで頻繁に失敗することを示す。
本研究では,自信ある擬似ラベルが存在しない状態でのトレーニング信号を提供する自己教師型手法を活用する手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T16:29:10Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Disentangling Sampling and Labeling Bias for Learning in Large-Output
Spaces [64.23172847182109]
異なる負のサンプリングスキームが支配的ラベルと稀なラベルで暗黙的にトレードオフパフォーマンスを示す。
すべてのラベルのサブセットで作業することで生じるサンプリングバイアスと、ラベルの不均衡に起因するデータ固有のラベルバイアスの両方に明示的に対処する統一された手段を提供する。
論文 参考訳(メタデータ) (2021-05-12T15:40:13Z) - Denoising Multi-Source Weak Supervision for Neural Text Classification [9.099703420721701]
ラベル付きデータを用いずにニューラルネットワーク分類器を学習する問題について検討する。
ルールによって引き起こされる弱いラベルは、しばしばノイズが多く不完全であるため、この問題は困難である。
我々は,条件付きソフトアテンション機構を用いて音源の信頼性を推定し,規則付弱ラベルを集約することでラベルノイズを低減するラベルデノイザを設計する。
論文 参考訳(メタデータ) (2020-10-09T13:57:52Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。