論文の概要: Are We Really Making Much Progress? Bag-of-Words vs. Sequence vs. Graph
vs. Hierarchy for Single- and Multi-Label Text Classification
- arxiv url: http://arxiv.org/abs/2204.03954v3
- Date: Fri, 5 May 2023 08:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:50:59.410085
- Title: Are We Really Making Much Progress? Bag-of-Words vs. Sequence vs. Graph
vs. Hierarchy for Single- and Multi-Label Text Classification
- Title(参考訳): 私たちは本当に大きな進歩を遂げていますか?
単一ラベルと複数ラベルテキストの分類におけるバガ-オブ-ワード対シーケンス対グラフ対階層
- Authors: Lukas Galke, Andor Diera, Bao Xin Lin, Bhakti Khera, Tim Meuser,
Tushar Singhal, Fabian Karl, Ansgar Scherp
- Abstract要約: グラフニューラルネットワークは、シングルラベルとマルチラベルのテキスト分類のためのグラフベースの手法を復活させた。
我々は、単語のバッグ、シーケンスベースのグラフ、テキスト分類のための階層的手法の豊富な選択を比較した。
本研究は,シングルラベルおよびマルチラベル分類タスクにおいて,グラフベースの手法が微調整言語モデルよりも優れていることを示すものである。
- 参考スコア(独自算出の注目度): 2.579878570919875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularity of graph neural networks has triggered a resurgence of
graph-based methods for single-label and multi-label text classification.
However, it is unclear whether these graph-based methods are beneficial
compared to standard machine learning methods and modern pretrained language
models. We compare a rich selection of bag-of-words, sequence-based,
graph-based, and hierarchical methods for text classification. We aggregate
results from the literature over 5 single-label and 7 multi-label datasets and
run our own experiments. Our findings unambiguously demonstrate that for
single-label and multi-label classification tasks, the graph-based methods fail
to outperform fine-tuned language models and sometimes even perform worse than
standard machine learning methods like multilayer perceptron (MLP) on a
bag-of-words. This questions the enormous amount of effort put into the
development of new graph-based methods in the last years and the promises they
make for text classification. Given our extensive experiments, we confirm that
pretrained language models remain state-of-the-art in text classification
despite all recent specialized advances. We argue that future work in text
classification should thoroughly test against strong baselines like MLPs to
properly assess the true scientific progress.
The source code is available: https://github.com/drndr/multilabel-text-clf
- Abstract(参考訳): グラフニューラルネットワークの普及により、シングルラベルとマルチラベルのテキスト分類のためのグラフベースの手法が復活した。
しかし、これらのグラフベースの手法が、標準的な機械学習手法や近代事前学習言語モデルと比較して有益かどうかは不明である。
テキスト分類のための単語の袋、シーケンスベース、グラフベース、階層的手法の豊富な選択を比較した。
5つのシングルラベルと7つのマルチラベルデータセットの文献から結果を集計し、独自の実験を実行します。
その結果,単一ラベルおよび複数ラベルの分類タスクにおいて,グラフベースの手法は微調整言語モデルよりも優れず,多層パーセプトロン (MLP) などの標準機械学習手法よりも性能が劣ることが明らかとなった。
この質問は、過去数年間にグラフベースの新しいメソッドの開発に費やされた膨大な労力と、テキスト分類の約束に疑問を呈するものだ。
最近の専門的な進歩にもかかわらず、事前学習された言語モデルがテキスト分類において最先端のままであることを確認した。
テキスト分類における今後の研究は、mlpのような強固なベースラインに対して徹底的にテストし、科学的進歩を適切に評価すべきである。
ソースコード: https://github.com/drndr/multilabel-text-clf
関連論文リスト
- Leveraging Annotator Disagreement for Text Classification [3.6625157427847963]
テキスト分類では、データセットが複数のアノテータによってアノテートされた場合でも、モデルトレーニングに1つのマジョリティラベルのみを使用するのが一般的である。
本稿では,アノテータの不一致を利用してテキスト分類を行う3つの手法を提案する。
論文 参考訳(メタデータ) (2024-09-26T06:46:53Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - XAI-CLASS: Explanation-Enhanced Text Classification with Extremely Weak
Supervision [6.406111099707549]
XAI-CLASSは、説明強化弱教師付きテキスト分類法である。
単語の正当性予測を補助タスクとして組み込む。
XAI-CLASSは、他の弱い教師付きテキスト分類法よりも大幅に優れている。
論文 参考訳(メタデータ) (2023-10-31T23:24:22Z) - Evaluating Unsupervised Text Classification: Zero-shot and
Similarity-based Approaches [0.6767885381740952]
類似性に基づくアプローチは、テキスト文書表現とクラス記述表現の類似性に基づいてインスタンスを分類しようとする。
ゼロショットテキスト分類手法は、未知クラスの適切なラベルをテキスト文書に割り当てることで、トレーニングタスクから得られる知識を一般化することを目的としている。
本稿では, 類似度に基づくゼロショットとゼロショットのアプローチを, 未確認クラスのテキスト分類のために体系的に評価する。
論文 参考訳(メタデータ) (2022-11-29T15:14:47Z) - Hierarchical Heterogeneous Graph Representation Learning for Short Text
Classification [60.233529926965836]
短文分類のためのグラフニューラルネットワーク(GNN)に基づく ShiNE と呼ばれる新しい手法を提案する。
まず,短文データセットを単語レベル成分グラフからなる階層的不均一グラフとしてモデル化する。
そして、類似した短いテキスト間の効果的なラベル伝搬を容易にするショート文書グラフを動的に学習する。
論文 参考訳(メタデータ) (2021-10-30T05:33:05Z) - CLLD: Contrastive Learning with Label Distance for Text Classificatioin [0.6299766708197883]
コントラストクラスを学習するためのCLLD(Contrastive Learning with Label Distance)を提案する。
CLLDは、ラベルの割り当てに繋がる微妙な違いの中で、柔軟性を保証する。
実験の結果,学習したラベル距離は,クラス間の対立性を緩和することが示唆された。
論文 参考訳(メタデータ) (2021-10-25T07:07:14Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Text Classification Using Label Names Only: A Language Model
Self-Training Approach [80.63885282358204]
現在のテキスト分類法は、訓練データとして多くの人ラベルの文書を必要とするのが一般的である。
本モデルでは,トピック分類や感情分類を含む4つのベンチマークデータセットにおいて,約90%の精度が得られた。
論文 参考訳(メタデータ) (2020-10-14T17:06:41Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。