論文の概要: WOT-Class: Weakly Supervised Open-world Text Classification
- arxiv url: http://arxiv.org/abs/2305.12401v2
- Date: Wed, 22 Nov 2023 23:56:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 04:17:07.360854
- Title: WOT-Class: Weakly Supervised Open-world Text Classification
- Title(参考訳): WOT-Class: オープンワールドのテキスト分類を監督
- Authors: Tianle Wang, Zihan Wang, Weitang Liu and Jingbo Shang
- Abstract要約: 我々は、弱教師付きオープンワールドテキスト分類の新しい問題に取り組んでいる。
強い仮定を持ち上げる新しいフレームワーク WOT-Class を提案する。
7つの人気のあるテキスト分類データセットの実験は、WOT-Classが強いベースラインより優れていることを示している。
- 参考スコア(独自算出の注目度): 41.77945049159303
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: State-of-the-art weakly supervised text classification methods, while
significantly reduced the required human supervision, still requires the
supervision to cover all the classes of interest. This is never easy to meet in
practice when human explore new, large corpora without complete pictures. In
this paper, we work on a novel yet important problem of weakly supervised
open-world text classification, where supervision is only needed for a few
examples from a few known classes and the machine should handle both known and
unknown classes in test time. General open-world classification has been
studied mostly using image classification; however, existing methods typically
assume the availability of sufficient known-class supervision and strong
unknown-class prior knowledge (e.g., the number and/or data distribution). We
propose a novel framework WOT-Class that lifts those strong assumptions.
Specifically, it follows an iterative process of (a) clustering text to new
classes, (b) mining and ranking indicative words for each class, and (c)
merging redundant classes by using the overlapped indicative words as a bridge.
Extensive experiments on 7 popular text classification datasets demonstrate
that WOT-Class outperforms strong baselines consistently with a large margin,
attaining 23.33% greater average absolute macro-F1 over existing approaches
across all datasets. Such competent accuracy illuminates the practical
potential of further reducing human effort for text classification.
- Abstract(参考訳): 最先端の教師付きテキスト分類法は、必要な人間の監督を著しく減らしたが、それでもすべての関心のクラスをカバーするために監督が必要である。
これは、人間が完全な写真なしで新しい大きなコーパスを探索するとき、実際に会うことは容易ではない。
本稿では,いくつかの既知のクラスを例に挙げた上で,機械が既知のクラスと未知のクラスの両方をテスト時間内に扱えるような,弱教師付きオープンワールドテキスト分類の新たな課題について検討する。
一般のオープンワールド分類は、主に画像分類を用いて研究されているが、既存の手法では、十分な既知のクラス監督と強力な未知のクラス事前知識(例えば、数とデータ分布)が利用できると想定されている。
本稿では,これらの強い仮定を浮き彫りにする新しいフレームワーク WOT-Class を提案する。
具体的には 反復的なプロセスに従います
(a)新しいクラスへのテキストのクラスタリング。
b)各階級の指示語をマイニングし、ランク付けすること
(c)重複した指示語をブリッジとして使用して冗長クラスをマージすること。
7つの人気のあるテキスト分類データセットに対する大規模な実験により、WOT-Classは強いベースラインと大きなマージンを一貫して上回り、すべてのデータセットにまたがる既存のアプローチよりも23.33%高い平均絶対マクロF1を達成した。
このような有能な精度は、テキスト分類に対する人間の努力をさらに減らす実用的な可能性を照らしている。
関連論文リスト
- XAI-CLASS: Explanation-Enhanced Text Classification with Extremely Weak
Supervision [6.406111099707549]
XAI-CLASSは、説明強化弱教師付きテキスト分類法である。
単語の正当性予測を補助タスクとして組み込む。
XAI-CLASSは、他の弱い教師付きテキスト分類法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-10-31T23:24:22Z) - MEGClass: Extremely Weakly Supervised Text Classification via
Mutually-Enhancing Text Granularities [33.567613041147844]
MEGClassは極めて弱い教師付きテキスト分類法である。
ミューチュアル・エンハンシング・テキスト・グラニュラリティを利用する。
最も情報に富むクラス表示文書を選択することができる。
論文 参考訳(メタデータ) (2023-04-04T17:26:11Z) - LIME: Weakly-Supervised Text Classification Without Seeds [1.2691047660244335]
弱教師付きテキスト分類では、ラベル名のみが監督の源として機能する。
弱教師付きテキスト分類のためのフレームワーク LIME を提案する。
弱教師付き分類とテキスト・エンターメントを組み合わせることで、両者の欠点を軽減できることが判明した。
論文 参考訳(メタデータ) (2022-10-13T04:28:28Z) - Open Long-Tailed Recognition in a Dynamic World [82.91025831618545]
実世界のデータは、しばしば長い尾を持ち、(目に見えないクラスを持つ)オープンな分布を示す。
現実的な認識システムは、多数派(頭)クラスと少数派(尾)クラスの間でバランスを取り、分布を一般化し、見知らぬクラス(オープンクラス)のインスタンスで新規性を認める必要がある。
我々は,Open Long-Tailed Recognition++を,このような自然分布データからの学習として定義し,バランスの取れたテストセット上での分類精度を最適化する。
論文 参考訳(メタデータ) (2022-08-17T15:22:20Z) - How does the degree of novelty impacts semi-supervised representation
learning for novel class retrieval? [0.5672132510411463]
ディープネットワークによる教師付き表現学習は、トレーニングクラスに過度に適合する傾向がある。
本稿では,新しい授業の新規性の度合いを変化させる独自の評価手法を提案する。
セマンティクスのギャップが大きくなると,バニラの教師付き表現はより新しいクラスを検索するのに不足することがわかった。
論文 参考訳(メタデータ) (2022-08-17T10:49:10Z) - Class-incremental Novel Class Discovery [76.35226130521758]
クラス増進型新規クラス発見(class-iNCD)の課題について検討する。
基本クラスに関する過去の情報を忘れないようにする,クラスiNCDのための新しい手法を提案する。
3つの共通ベンチマークで実施した実験により,本手法が最先端の手法を著しく上回ることを示した。
論文 参考訳(メタデータ) (2022-07-18T13:49:27Z) - Open-World Semi-Supervised Learning [66.90703597468377]
本稿では,従来のクラスを認識するためにモデルを必要とする,新しいオープンワールド半教師付き学習環境を提案する。
データの分類とクラスタ化を同時に行うアプローチであるORCAを提案する。
我々は,ORCAが新しいクラスを正確に発見し,ベンチマーク画像分類データセット上で以前に見られたクラスにサンプルを割り当てることを示した。
論文 参考訳(メタデータ) (2021-02-06T07:11:07Z) - Binary Classification from Multiple Unlabeled Datasets via Surrogate Set
Classification [94.55805516167369]
我々は m 個の U 集合を $mge2$ で二進分類する新しい手法を提案する。
我々のキーとなる考え方は、サロゲート集合分類(SSC)と呼ばれる補助的分類タスクを考えることである。
論文 参考訳(メタデータ) (2021-02-01T07:36:38Z) - No Subclass Left Behind: Fine-Grained Robustness in Coarse-Grained
Classification Problems [20.253644336965042]
実世界の分類タスクでは、各クラスは、しばしば複数のよりきめ細かい「サブクラス」を含む。
サブクラスラベルは頻繁に利用できないため、粗粒度のクラスラベルのみを使用してトレーニングされたモデルは、異なるサブクラス間で高い可変性能を示すことが多い。
本稿では,サブクラスラベルが不明な場合でも,隠れ層化を計測・緩和するGEORGEを提案する。
論文 参考訳(メタデータ) (2020-11-25T18:50:32Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。