論文の概要: Denoising Multi-Source Weak Supervision for Neural Text Classification
- arxiv url: http://arxiv.org/abs/2010.04582v1
- Date: Fri, 9 Oct 2020 13:57:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-09 05:32:43.930680
- Title: Denoising Multi-Source Weak Supervision for Neural Text Classification
- Title(参考訳): ニューラルテキスト分類のためのマルチソース弱スーパービジョン
- Authors: Wendi Ren, Yinghao Li, Hanting Su, David Kartchner, Cassie Mitchell,
Chao Zhang
- Abstract要約: ラベル付きデータを用いずにニューラルネットワーク分類器を学習する問題について検討する。
ルールによって引き起こされる弱いラベルは、しばしばノイズが多く不完全であるため、この問題は困難である。
我々は,条件付きソフトアテンション機構を用いて音源の信頼性を推定し,規則付弱ラベルを集約することでラベルノイズを低減するラベルデノイザを設計する。
- 参考スコア(独自算出の注目度): 9.099703420721701
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the problem of learning neural text classifiers without using any
labeled data, but only easy-to-provide rules as multiple weak supervision
sources. This problem is challenging because rule-induced weak labels are often
noisy and incomplete. To address these two challenges, we design a label
denoiser, which estimates the source reliability using a conditional soft
attention mechanism and then reduces label noise by aggregating rule-annotated
weak labels. The denoised pseudo labels then supervise a neural classifier to
predicts soft labels for unmatched samples, which address the rule coverage
issue. We evaluate our model on five benchmarks for sentiment, topic, and
relation classifications. The results show that our model outperforms
state-of-the-art weakly-supervised and semi-supervised methods consistently,
and achieves comparable performance with fully-supervised methods even without
any labeled data. Our code can be found at
https://github.com/weakrules/Denoise-multi-weak-sources.
- Abstract(参考訳): 本研究では,ラベル付きデータを用いずにニューラルネットワーク分類器を学習する問題について検討する。
規則によって引き起こされる弱いラベルはしばしば騒がしく不完全であるため、この問題は難しい。
これら2つの課題に対処するために,条件付きソフトアテンション機構を用いて音源の信頼性を推定するラベルデノイザを設計し,規則付弱ラベルを集約することでラベルノイズを低減する。
識別された擬似ラベルは神経分類器を監督し、未一致のサンプルのソフトラベルを予測し、ルールカバレッジの問題に対処する。
我々は、感情、話題、関係分類の5つのベンチマークでモデルを評価する。
その結果,本モデルは最先端の弱教師付き手法と半教師付き手法を一貫して上回り,ラベル付きデータなしでも完全教師付き手法と同等の性能を発揮することがわかった。
私たちのコードはhttps://github.com/weakrules/Denoise-multi-weak-sourcesにある。
関連論文リスト
- Trusted Multi-view Learning with Label Noise [17.458306450909316]
マルチビュー学習手法は、意思決定の不確実性を無視しながら、意思決定精度の向上に焦点を当てることが多い。
本稿では,この問題を解決するため,信頼度の高いマルチビューノイズ修正手法を提案する。
我々は,TMNRと最先端のマルチビュー学習,および5つの公開データセットに基づくラベルノイズ学習ベースラインを実証的に比較した。
論文 参考訳(メタデータ) (2024-04-18T06:47:30Z) - Label-Retrieval-Augmented Diffusion Models for Learning from Noisy
Labels [61.97359362447732]
ノイズの多いラベルからの学習は、実際のアプリケーションのための機械学習において、重要かつ長年にわたる問題である。
本稿では,生成モデルの観点からラベルノイズ問題を再構成する。
我々のモデルは、標準的な実世界のベンチマークデータセットで新しいSOTA(State-of-the-art)結果を達成する。
論文 参考訳(メタデータ) (2023-05-31T03:01:36Z) - Robust Training of Graph Neural Networks via Noise Governance [27.767913371777247]
グラフニューラルネットワーク(GNN)は、半教師付き学習のモデルとして広く使われている。
本稿では,グラフノード上のラベルがうるさいだけでなく,難易度も低い重要なシナリオについて考察する。
本稿では,ラベルノイズを明示的に制御する学習により,ロバスト性を向上する新しいRTGNNフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-12T09:25:32Z) - Learning from Noisy Labels with Coarse-to-Fine Sample Credibility
Modeling [22.62790706276081]
ノイズの多いラベルでディープニューラルネットワーク(DNN)を訓練することは事実上難しい。
従来の取り組みでは、統合されたデノナイジングフローで部分データや完全なデータを扱う傾向があります。
本研究では,ノイズの多いデータを分割・分散的に処理するために,CREMAと呼ばれる粗大な頑健な学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-23T02:06:38Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - S3: Supervised Self-supervised Learning under Label Noise [53.02249460567745]
本稿では,ラベルノイズの存在下での分類の問題に対処する。
提案手法の核心は,サンプルのアノテートラベルと特徴空間内のその近傍のラベルの分布との整合性に依存するサンプル選択機構である。
提案手法は,CIFARCIFAR100とWebVisionやANIMAL-10Nなどの実環境ノイズデータセットの両方で,従来の手法をはるかに上回っている。
論文 参考訳(メタデータ) (2021-11-22T15:49:20Z) - Robust Long-Tailed Learning under Label Noise [50.00837134041317]
本研究では,長期ラベル分布におけるラベルノイズ問題について検討する。
本稿では,長期学習のための雑音検出を実現する頑健なフレームワークAlgoを提案する。
我々のフレームワークは、半教師付き学習アルゴリズムを自然に活用して一般化をさらに改善することができる。
論文 参考訳(メタデータ) (2021-08-26T03:45:00Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - A Second-Order Approach to Learning with Instance-Dependent Label Noise [58.555527517928596]
ラベルノイズの存在は、しばしばディープニューラルネットワークのトレーニングを誤解させる。
人間による注釈付きラベルのエラーは、タスクの難易度レベルに依存する可能性が高いことを示しています。
論文 参考訳(メタデータ) (2020-12-22T06:36:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。