論文の概要: XAI-CLASS: Explanation-Enhanced Text Classification with Extremely Weak
Supervision
- arxiv url: http://arxiv.org/abs/2311.00189v1
- Date: Tue, 31 Oct 2023 23:24:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-02 15:35:54.291319
- Title: XAI-CLASS: Explanation-Enhanced Text Classification with Extremely Weak
Supervision
- Title(参考訳): XAI-CLASS:極弱スーパービジョンによる説明強調テキスト分類
- Authors: Daniel Hajialigol, Hanwen Liu, Xuan Wang
- Abstract要約: XAI-CLASSは、説明強化弱教師付きテキスト分類法である。
単語の正当性予測を補助タスクとして組み込む。
XAI-CLASSは、他の弱い教師付きテキスト分類法よりも大幅に優れている。
- 参考スコア(独自算出の注目度): 6.406111099707549
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification aims to effectively categorize documents into pre-defined
categories. Traditional methods for text classification often rely on large
amounts of manually annotated training data, making the process time-consuming
and labor-intensive. To address this issue, recent studies have focused on
weakly-supervised and extremely weakly-supervised settings, which require
minimal or no human annotation, respectively. In previous methods of weakly
supervised text classification, pseudo-training data is generated by assigning
pseudo-labels to documents based on their alignment (e.g., keyword matching)
with specific classes. However, these methods ignore the importance of
incorporating the explanations of the generated pseudo-labels, or saliency of
individual words, as additional guidance during the text classification
training process. To address this limitation, we propose XAI-CLASS, a novel
explanation-enhanced extremely weakly-supervised text classification method
that incorporates word saliency prediction as an auxiliary task. XAI-CLASS
begins by employing a multi-round question-answering process to generate
pseudo-training data that promotes the mutual enhancement of class labels and
corresponding explanation word generation. This pseudo-training data is then
used to train a multi-task framework that simultaneously learns both text
classification and word saliency prediction. Extensive experiments on several
weakly-supervised text classification datasets show that XAI-CLASS outperforms
other weakly-supervised text classification methods significantly. Moreover,
experiments demonstrate that XAI-CLASS enhances both model performance and
explainability.
- Abstract(参考訳): テキスト分類は、文書を予め定義されたカテゴリに効果的に分類することを目的としている。
従来のテキスト分類の方法は、大量の手動の注釈付きトレーニングデータに依存しており、プロセスに時間と労力がかかる。
この問題に対処するために、近年の研究は、最小限または無限のアノテーションを必要とする弱い教師付き設定と極めて弱い教師付き設定に焦点を当てている。
従来の弱い教師付きテキスト分類の手法では、擬似ラベルを特定のクラスとアライメント(例えばキーワードマッチング)に基づいて文書に割り当てることで擬似訓練データを生成する。
しかし、これらの手法は、テキスト分類訓練過程において、生成した擬似ラベルや個々の単語の正当性の説明を付加することの重要性を無視する。
この制限に対処するために,単語のサリエンシ予測を補助タスクとして組み込んだ,説明に富んだ極めて弱いテキスト分類法であるXAI-CLASSを提案する。
XAI-CLASSは、複数ラウンドの質問回答プロセスを用いて、クラスラベルとそれに対応する説明語生成の相互強化を促進する擬似学習データを生成する。
この擬似学習データは、テキスト分類と単語の塩分予測の両方を同時に学習するマルチタスクフレームワークのトレーニングに使用される。
いくつかの弱い教師付きテキスト分類データセットに関する広範な実験は、xaiクラスが他の弱い教師付きテキスト分類方法を大幅に上回っていることを示している。
さらに,xaiクラスがモデル性能と説明可能性の両方を高めることを示す実験を行った。
関連論文リスト
- Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - MEGClass: Extremely Weakly Supervised Text Classification via
Mutually-Enhancing Text Granularities [33.567613041147844]
MEGClassは極めて弱い教師付きテキスト分類法である。
ミューチュアル・エンハンシング・テキスト・グラニュラリティを利用する。
最も情報に富むクラス表示文書を選択することができる。
論文 参考訳(メタデータ) (2023-04-04T17:26:11Z) - FastClass: A Time-Efficient Approach to Weakly-Supervised Text
Classification [14.918600168973564]
本稿では,効率的な弱教師付き分類手法であるFastClassを提案する。
センシティブテキスト表現を使用して、外部ラベルなしコーパスからクラス関連文書を検索する。
実験により,提案手法は,分類精度の観点からキーワード駆動モデルよりも優れており,訓練速度のオーダー・オブ・マグニチュードが高速であることが確認された。
論文 参考訳(メタデータ) (2022-12-11T13:43:22Z) - CCPrefix: Counterfactual Contrastive Prefix-Tuning for Many-Class
Classification [57.62886091828512]
多クラス分類のための新しいプレフィックスチューニング手法であるCCPrefixを提案する。
基本的に、ラベル空間における実数対から派生したインスタンス依存の軟式接頭辞は、多クラス分類における言語動詞化を補完するために利用される。
論文 参考訳(メタデータ) (2022-11-11T03:45:59Z) - LIME: Weakly-Supervised Text Classification Without Seeds [1.2691047660244335]
弱教師付きテキスト分類では、ラベル名のみが監督の源として機能する。
弱教師付きテキスト分類のためのフレームワーク LIME を提案する。
弱教師付き分類とテキスト・エンターメントを組み合わせることで、両者の欠点を軽減できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T04:28:28Z) - Label Semantic Aware Pre-training for Few-shot Text Classification [53.80908620663974]
テキスト分類システムの一般化とデータ効率を向上させるために,ラベルセマンティック・アウェア事前学習(LSAP)を提案する。
LSAPは、ラベル付き文の2次事前学習を行うことにより、ラベルセマンティクスを事前学習された生成モデル(T5)に組み込む。
論文 参考訳(メタデータ) (2022-04-14T17:33:34Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - TF-CR: Weighting Embeddings for Text Classification [6.531659195805749]
本稿では,単語埋め込みの計算において,高頻度のカテゴリー排他語を重み付け可能な新しい重み付け方式TF-CRを提案する。
16の分類データセットの実験はTF-CRの有効性を示し、既存の重み付け方式よりもパフォーマンススコアが向上した。
論文 参考訳(メタデータ) (2020-12-11T19:23:28Z) - Text Classification with Few Examples using Controlled Generalization [58.971750512415134]
現在の実践は、トレーニング中に見えない単語を、類似した単語とマッピングするために、事前訓練された単語埋め込みに依存している。
私たちの代替案は、未ラベルのパースコーパスから派生したスパース事前訓練された表現から始まります。
これらのベクトル上のフィードフォワードネットワークは、特に低データシナリオにおいて有効であることを示す。
論文 参考訳(メタデータ) (2020-05-18T06:04:58Z) - Learning Interpretable and Discrete Representations with Adversarial
Training for Unsupervised Text Classification [87.28408260725138]
TIGANは、テキストを離散コードと連続ノイズを含む2つの非絡み合った表現にエンコードすることを学ぶ。
抽出したトピックの単語は,TIGANが一貫性と高度に解釈可能なトピックを学習していることを示している。
論文 参考訳(メタデータ) (2020-04-28T02:53:59Z) - Description Based Text Classification with Reinforcement Learning [34.18824470728299]
本稿では,各カテゴリのラベルをカテゴリ記述に関連付ける,テキスト分類のための新しいフレームワークを提案する。
我々は、幅広いテキスト分類タスクにおいて、強いベースラインよりも顕著なパフォーマンス向上を観察する。
論文 参考訳(メタデータ) (2020-02-08T02:14:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。