論文の概要: Rank-Aware Negative Training for Semi-Supervised Text Classification
- arxiv url: http://arxiv.org/abs/2306.07621v1
- Date: Tue, 13 Jun 2023 08:41:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 14:31:07.716016
- Title: Rank-Aware Negative Training for Semi-Supervised Text Classification
- Title(参考訳): 半監督テキスト分類のためのランクアウェア否定学習
- Authors: Ahmed Murtadha, Shengfeng Pan, Wen Bo, Jianlin Su, Xinxin Cao, Wenze
Zhang, Yunfeng Liu
- Abstract要約: 半教師付きテキスト分類ベースのパラダイム(SSTC)は通常、自己学習の精神を用いる。
本稿では,SSTCを雑音ラベル方式で学習する上で,RNT(Range-Aware Negative Training)フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.105629960108712
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Semi-supervised text classification-based paradigms (SSTC) typically employ
the spirit of self-training. The key idea is to train a deep classifier on
limited labeled texts and then iteratively predict the unlabeled texts as their
pseudo-labels for further training. However, the performance is largely
affected by the accuracy of pseudo-labels, which may not be significant in
real-world scenarios. This paper presents a Rank-aware Negative Training (RNT)
framework to address SSTC in learning with noisy label manner. To alleviate the
noisy information, we adapt a reasoning with uncertainty-based approach to rank
the unlabeled texts based on the evidential support received from the labeled
texts. Moreover, we propose the use of negative training to train RNT based on
the concept that ``the input instance does not belong to the complementary
label''. A complementary label is randomly selected from all labels except the
label on-target. Intuitively, the probability of a true label serving as a
complementary label is low and thus provides less noisy information during the
training, resulting in better performance on the test data. Finally, we
evaluate the proposed solution on various text classification benchmark
datasets. Our extensive experiments show that it consistently overcomes the
state-of-the-art alternatives in most scenarios and achieves competitive
performance in the others. The code of RNT is publicly available
at:https://github.com/amurtadha/RNT.
- Abstract(参考訳): 半教師付きテキスト分類ベースのパラダイム(SSTC)は通常、自己学習の精神を用いる。
重要なアイデアは、限定されたラベル付きテキストで深い分類器をトレーニングし、さらにトレーニングのためにラベルなしのテキストを擬似ラベルとして反復的に予測することだ。
しかし、実際のシナリオでは重要でないかもしれない擬似ラベルの精度に大きく影響されている。
本稿では,SSTCを雑音ラベル方式で学習する上で,RNT(Rang-Aware Negative Training)フレームワークを提案する。
雑音情報を軽減するために,ラベル付きテキストから受信した証拠的支援に基づき,ラベル付きテキストをランク付けする不確実性に基づくアプローチを適用した。
さらに,「入力インスタンスは補完ラベルに属さない」という概念に基づいて,RNTのトレーニングに負のトレーニングを用いることを提案する。
補助ラベルは、オンターゲット以外のすべてのラベルからランダムに選択される。
直感的には、補完ラベルとして機能する真のラベルの確率は低く、トレーニング中にノイズの少ない情報を提供するため、テストデータのパフォーマンスが向上する。
最後に,提案手法を各種テキスト分類ベンチマークデータセット上で評価する。
我々の広範な実験は、ほとんどのシナリオで最先端の代替手段を一貫して克服し、他のシナリオで競争性能を達成することを示した。
RNTのコードは、https://github.com/amurtadha/RNTで公開されている。
関連論文リスト
- Determined Multi-Label Learning via Similarity-Based Prompt [12.428779617221366]
マルチラベル分類では、各トレーニングインスタンスは複数のクラスラベルに同時に関連付けられている。
この問題を軽減するために,textitDetermined Multi-Label Learning (DMLL) と呼ばれる新しいラベル設定を提案する。
論文 参考訳(メタデータ) (2024-03-25T07:08:01Z) - JointMatch: A Unified Approach for Diverse and Collaborative
Pseudo-Labeling to Semi-Supervised Text Classification [65.268245109828]
半教師付きテキスト分類(SSTC)は、ラベルのないデータを活用する能力によって注目を集めている。
擬似ラベルに基づく既存のアプローチは、擬似ラベルバイアスと誤り蓄積の問題に悩まされる。
我々は、最近の半教師付き学習からアイデアを統一することでこれらの課題に対処する、SSTCの総合的なアプローチであるJointMatchを提案する。
論文 参考訳(メタデータ) (2023-10-23T05:43:35Z) - Soft Curriculum for Learning Conditional GANs with Noisy-Labeled and
Uncurated Unlabeled Data [70.25049762295193]
本稿では,トレーニング中にノイズラベル付きおよび未処理データを受け入れる条件付き画像生成フレームワークを提案する。
本稿では,ラベルのないデータに新たなラベルを割り当てながら,逆行訓練にインスタンスワイドを割り当てるソフトカリキュラム学習を提案する。
実験により,本手法は,定量および定性性能の両面において,既存の半教師付き・ラベル付きロバストな手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-17T08:31:59Z) - Label Noise-Resistant Mean Teaching for Weakly Supervised Fake News
Detection [93.6222609806278]
本稿では,弱い教師付き偽ニュース検出のためのラベル雑音耐性平均教育手法 (LNMT) を提案する。
LNMTは、未ラベルのニュースとユーザのフィードバックコメントを活用して、トレーニングデータの量を増やす。
LNMTはラベル伝搬とラベル信頼性推定を備えた平均教師フレームワークを確立する。
論文 参考訳(メタデータ) (2022-06-10T16:01:58Z) - Context-based Virtual Adversarial Training for Text Classification with
Noisy Labels [1.9508698179748525]
本研究では,テキスト分類器が雑音ラベルに過度に収まらないよう,コンテキストベースの仮想対位訓練(ConVAT)を提案する。
従来の手法とは異なり,提案手法は入力よりも文脈レベルで逆学習を行う。
2種類のラベルノイズを持つ4つのテキスト分類データセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2022-05-29T14:19:49Z) - Label Semantic Aware Pre-training for Few-shot Text Classification [53.80908620663974]
テキスト分類システムの一般化とデータ効率を向上させるために,ラベルセマンティック・アウェア事前学習(LSAP)を提案する。
LSAPは、ラベル付き文の2次事前学習を行うことにより、ラベルセマンティクスを事前学習された生成モデル(T5)に組み込む。
論文 参考訳(メタデータ) (2022-04-14T17:33:34Z) - Debiased Pseudo Labeling in Self-Training [77.83549261035277]
ディープニューラルネットワークは、大規模ラベル付きデータセットの助けを借りて、幅広いタスクで顕著なパフォーマンスを達成する。
ラベル付きデータの要求を軽減するため、ラベル付けされていないデータに擬似ラベルを付けることにより、学術と産業の両方で自己学習が広く使われている。
疑似ラベルの生成と利用を2つの独立した頭文字で分離するデバイアスドを提案する。
論文 参考訳(メタデータ) (2022-02-15T02:14:33Z) - SENT: Sentence-level Distant Relation Extraction via Negative Training [45.98674099149065]
文レベルのトレーニングにバッグラベルを使用すると、多くのノイズが発生し、パフォーマンスが著しく低下する。
我々は、モデルがこれらの補完ラベルに属さないことに関して、補完ラベルを用いて訓練されるネガティブトレーニング(NT)の使用を提案する。
NTに基づいて,遠隔関係抽出のための文レベルフレームワークであるSENTを提案する。
論文 参考訳(メタデータ) (2021-06-22T06:49:05Z) - Improving Pretrained Models for Zero-shot Multi-label Text
Classification through Reinforced Label Hierarchy Reasoning [18.531022315325583]
ラベル階層の探索は、ゼロショットのマルチラベルテキスト分類問題に取り組むための有望なアプローチとなっている。
トレーニング中の階層内のラベル間の相互依存性を促進するために,RLHR(Reinforced Label Hierarchy Reasoning)アプローチを提案する。
論文 参考訳(メタデータ) (2021-04-04T19:14:09Z) - PseudoSeg: Designing Pseudo Labels for Semantic Segmentation [78.35515004654553]
ラベルなしまたは弱いラベル付きデータを用いたトレーニングのための構造化された擬似ラベルを生成するための擬似ラベルの再設計を提案する。
提案手法の有効性を,低データと高データの両方において示す。
論文 参考訳(メタデータ) (2020-10-19T17:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。