論文の概要: LIME: Weakly-Supervised Text Classification Without Seeds
- arxiv url: http://arxiv.org/abs/2210.06720v1
- Date: Thu, 13 Oct 2022 04:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 14:14:06.949304
- Title: LIME: Weakly-Supervised Text Classification Without Seeds
- Title(参考訳): LIME: 種子なしのテキスト分類は弱かった
- Authors: Seongmin Park, Jihwa Lee
- Abstract要約: 弱教師付きテキスト分類では、ラベル名のみが監督の源として機能する。
弱教師付きテキスト分類のためのフレームワーク LIME を提案する。
弱教師付き分類とテキスト・エンターメントを組み合わせることで、両者の欠点を軽減できることが判明した。
- 参考スコア(独自算出の注目度): 1.2691047660244335
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In weakly-supervised text classification, only label names act as sources of
supervision. Predominant approaches to weakly-supervised text classification
utilize a two-phase framework, where test samples are first assigned
pseudo-labels and are then used to train a neural text classifier. In most
previous work, the pseudo-labeling step is dependent on obtaining seed words
that best capture the relevance of each class label. We present LIME, a
framework for weakly-supervised text classification that entirely replaces the
brittle seed-word generation process with entailment-based
pseudo-classification. We find that combining weakly-supervised classification
and textual entailment mitigates shortcomings of both, resulting in a more
streamlined and effective classification pipeline. With just an off-the-shelf
textual entailment model, LIME outperforms recent baselines in
weakly-supervised text classification and achieves state-of-the-art in 4
benchmarks. We open source our code at https://github.com/seongminp/LIME.
- Abstract(参考訳): 弱教師付きテキスト分類では、ラベル名のみが監督源として機能する。
弱い教師付きテキスト分類への優位なアプローチは、テストサンプルをまず擬似ラベルに割り当て、次にニューラルネットワークテキスト分類器のトレーニングに使用する2相フレームワークを使用する。
これまでのほとんどの研究において、擬似ラベルのステップは、各クラスラベルの関連性を最もよく捉えたシードワードの取得に依存する。
そこで,本研究では,弱教師付きテキスト分類のためのフレームワークであるlimeを提案する。
弱教師付き分類とテキストエンターメントを組み合わせることで、両者の欠点が軽減され、より合理化され、効果的な分類パイプラインが生まれる。
市販のテキストエンターメントモデルだけで、LIMEは弱教師付きテキスト分類において最近のベースラインを上回り、4つのベンチマークで最先端を達成する。
ソースコードはhttps://github.com/seongminp/LIME.comで公開しています。
関連論文リスト
- TELEClass: Taxonomy Enrichment and LLM-Enhanced Hierarchical Text Classification with Minimal Supervision [41.05874642535256]
階層的なテキスト分類は、ラベル分類における各文書を一連のクラスに分類することを目的としている。
初期の研究は、大量の人間の注釈付きデータを必要とする完全または半教師付き手法に重点を置いていた。
我々は、最小限の監督量で階層的なテキスト分類に取り組んでおり、各ノードのクラス名のみを唯一の監督として使用しています。
論文 参考訳(メタデータ) (2024-02-29T22:26:07Z) - XAI-CLASS: Explanation-Enhanced Text Classification with Extremely Weak
Supervision [6.406111099707549]
XAI-CLASSは、説明強化弱教師付きテキスト分類法である。
単語の正当性予測を補助タスクとして組み込む。
XAI-CLASSは、他の弱い教師付きテキスト分類法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-10-31T23:24:22Z) - PIEClass: Weakly-Supervised Text Classification with Prompting and
Noise-Robust Iterative Ensemble Training [42.013879670590214]
弱教師付きテキスト分類は、ターゲットクラスのラベル名を使用した分類器を唯一の監督として訓練する。
2つのモジュールからなるPIEClassを提案する。
PIEClassは、既存の7つのベンチマークデータセットの強いベースラインよりも全体的なパフォーマンスが向上している。
論文 参考訳(メタデータ) (2023-05-23T06:19:14Z) - WOT-Class: Weakly Supervised Open-world Text Classification [41.77945049159303]
我々は、弱教師付きオープンワールドテキスト分類の新しい問題に取り組んでいる。
強い仮定を持ち上げる新しいフレームワーク WOT-Class を提案する。
7つの人気のあるテキスト分類データセットの実験は、WOT-Classが強いベースラインより優れていることを示している。
論文 参考訳(メタデータ) (2023-05-21T08:51:24Z) - MEGClass: Extremely Weakly Supervised Text Classification via
Mutually-Enhancing Text Granularities [33.567613041147844]
MEGClassは極めて弱い教師付きテキスト分類法である。
ミューチュアル・エンハンシング・テキスト・グラニュラリティを利用する。
最も情報に富むクラス表示文書を選択することができる。
論文 参考訳(メタデータ) (2023-04-04T17:26:11Z) - Like a Good Nearest Neighbor: Practical Content Moderation and Text
Classification [66.02091763340094]
LaGoNN(Good Nearest Neighbor)は、学習可能なパラメータを導入することなく、隣人の情報で入力テキストを変更するSetFitの変更である。
LaGoNNは望ましくないコンテンツやテキスト分類のフラグ付けに有効であり、SetFitのパフォーマンスを改善する。
論文 参考訳(メタデータ) (2023-02-17T15:43:29Z) - Many-Class Text Classification with Matching [65.74328417321738]
textbfText textbfClassification をテキストとラベル間のtextbfMatching 問題として定式化し,TCM というシンプルなフレームワークを提案する。
従来のテキスト分類手法と比較して、TCMは分類ラベルのきめ細かい意味情報を活用している。
論文 参考訳(メタデータ) (2022-05-23T15:51:19Z) - Label Semantic Aware Pre-training for Few-shot Text Classification [53.80908620663974]
テキスト分類システムの一般化とデータ効率を向上させるために,ラベルセマンティック・アウェア事前学習(LSAP)を提案する。
LSAPは、ラベル付き文の2次事前学習を行うことにより、ラベルセマンティクスを事前学習された生成モデル(T5)に組み込む。
論文 参考訳(メタデータ) (2022-04-14T17:33:34Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - MASKER: Masked Keyword Regularization for Reliable Text Classification [73.90326322794803]
文脈に基づく予測を容易にする微調整手法であるマスク付きキーワード正規化(MASKER)を提案する。
maskerはモデルを規則化し、他の単語からキーワードを再構築し、十分な文脈なしに低信頼の予測を行う。
分類精度を低下させることなくOOD検出とクロスドメインの一般化を改善したMASKERを提案する。
論文 参考訳(メタデータ) (2020-12-17T04:54:16Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。