論文の概要: Are We Really Making Much Progress? Bag-of-Words vs. Sequence vs. Graph
vs. Hierarchy for Single- and Multi-Label Text Classification
- arxiv url: http://arxiv.org/abs/2204.03954v3
- Date: Fri, 5 May 2023 08:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 17:50:59.410085
- Title: Are We Really Making Much Progress? Bag-of-Words vs. Sequence vs. Graph
vs. Hierarchy for Single- and Multi-Label Text Classification
- Title(参考訳): 私たちは本当に大きな進歩を遂げていますか?
単一ラベルと複数ラベルテキストの分類におけるバガ-オブ-ワード対シーケンス対グラフ対階層
- Authors: Lukas Galke, Andor Diera, Bao Xin Lin, Bhakti Khera, Tim Meuser,
Tushar Singhal, Fabian Karl, Ansgar Scherp
- Abstract要約: グラフニューラルネットワークは、シングルラベルとマルチラベルのテキスト分類のためのグラフベースの手法を復活させた。
我々は、単語のバッグ、シーケンスベースのグラフ、テキスト分類のための階層的手法の豊富な選択を比較した。
本研究は,シングルラベルおよびマルチラベル分類タスクにおいて,グラフベースの手法が微調整言語モデルよりも優れていることを示すものである。
- 参考スコア(独自算出の注目度): 2.579878570919875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popularity of graph neural networks has triggered a resurgence of
graph-based methods for single-label and multi-label text classification.
However, it is unclear whether these graph-based methods are beneficial
compared to standard machine learning methods and modern pretrained language
models. We compare a rich selection of bag-of-words, sequence-based,
graph-based, and hierarchical methods for text classification. We aggregate
results from the literature over 5 single-label and 7 multi-label datasets and
run our own experiments. Our findings unambiguously demonstrate that for
single-label and multi-label classification tasks, the graph-based methods fail
to outperform fine-tuned language models and sometimes even perform worse than
standard machine learning methods like multilayer perceptron (MLP) on a
bag-of-words. This questions the enormous amount of effort put into the
development of new graph-based methods in the last years and the promises they
make for text classification. Given our extensive experiments, we confirm that
pretrained language models remain state-of-the-art in text classification
despite all recent specialized advances. We argue that future work in text
classification should thoroughly test against strong baselines like MLPs to
properly assess the true scientific progress.
The source code is available: https://github.com/drndr/multilabel-text-clf
- Abstract(参考訳): グラフニューラルネットワークの普及により、シングルラベルとマルチラベルのテキスト分類のためのグラフベースの手法が復活した。
しかし、これらのグラフベースの手法が、標準的な機械学習手法や近代事前学習言語モデルと比較して有益かどうかは不明である。
テキスト分類のための単語の袋、シーケンスベース、グラフベース、階層的手法の豊富な選択を比較した。
5つのシングルラベルと7つのマルチラベルデータセットの文献から結果を集計し、独自の実験を実行します。
その結果,単一ラベルおよび複数ラベルの分類タスクにおいて,グラフベースの手法は微調整言語モデルよりも優れず,多層パーセプトロン (MLP) などの標準機械学習手法よりも性能が劣ることが明らかとなった。
この質問は、過去数年間にグラフベースの新しいメソッドの開発に費やされた膨大な労力と、テキスト分類の約束に疑問を呈するものだ。
最近の専門的な進歩にもかかわらず、事前学習された言語モデルがテキスト分類において最先端のままであることを確認した。
テキスト分類における今後の研究は、mlpのような強固なベースラインに対して徹底的にテストし、科学的進歩を適切に評価すべきである。
ソースコード: https://github.com/drndr/multilabel-text-clf
関連論文リスト
- READ: Reinforcement-based Adversarial Learning for Text Classification with Limited Labeled Data [7.152603583363887]
BERTのような事前訓練されたトランスフォーマーモデルは、多くのテキスト分類タスクで大幅に向上している。
本稿では,強化学習に基づくテキスト生成と半教師付き対角学習アプローチをカプセル化する手法を提案する。
提案手法であるREADは、ラベルのないデータセットを用いて、強化学習を通じて多様な合成テキストを生成する。
論文 参考訳(メタデータ) (2025-01-14T11:39:55Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Linear Classifier: An Often-Forgotten Baseline for Text Classification [12.792276278777532]
単語のバグ・オブ・ワード機能に線形分類器のような単純なベースラインを,高度な手法とともに実行することの重要性を論じる。
BERTのような先進的なモデルは、適切に適用すれば、最良の結果しか得られない。
論文 参考訳(メタデータ) (2023-06-12T13:39:54Z) - TabLLM: Few-shot Classification of Tabular Data with Large Language
Models [66.03023402174138]
大規模言語モデルのゼロショットおよび少数ショット分類への応用について検討する。
テンプレートやテーブル・ツー・テキストモデル,大規模言語モデルなど,いくつかのシリアライズ手法を評価する。
このアプローチは、勾配木のような強力な伝統的なベースラインとも競合する。
論文 参考訳(メタデータ) (2022-10-19T17:08:13Z) - BenchCLAMP: A Benchmark for Evaluating Language Models on Syntactic and
Semantic Parsing [55.058258437125524]
本稿では,制約付きLanguage Model Parsingを評価するベンチマークであるBenchCLAMPを紹介する。
APIを通じてのみ利用可能な2つのGPT-3変種を含む8つの言語モデルをベンチマークする。
実験により,エンコーダ-デコーダ事前学習言語モデルでは,モデル出力が有効であると制約された場合に,構文解析や意味解析の最先端手法を超えることができることがわかった。
論文 参考訳(メタデータ) (2022-06-21T18:34:11Z) - Hierarchical Neural Network Approaches for Long Document Classification [3.6700088931938835]
我々は、より効率的な表現を効率よく捉えるために、事前訓練された普遍文(USE)と変換器からの双方向表現(BERT)を階層的に採用する。
提案するモデルは概念的に単純であり,入力データをチャンクに分割し,BERTとUSEのベースモデルに渡す。
USE + CNN/LSTM はスタンドアローンのベースラインよりも優れており、BERT + CNN/LSTM はスタンドアローンのベースラインと同等である。
論文 参考訳(メタデータ) (2022-01-18T07:17:40Z) - Revisiting Self-Training for Few-Shot Learning of Language Model [61.173976954360334]
ラベル付きデータにはタスク関連情報が豊富に含まれており、言語モデルの素早い学習に有用であることが証明されている。
本研究では,言語モデルファインチューニングのための自己学習手法を再検討し,最先端のプロンプトベースの少ショット学習者,SFLMを提案する。
論文 参考訳(メタデータ) (2021-10-04T08:51:36Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Self-Training Pre-Trained Language Models for Zero- and Few-Shot
Multi-Dialectal Arabic Sequence Labeling [7.310390479801139]
データスカース変種の性能を改善するため、ゼロおよび少数ショットシナリオで事前訓練された言語モデル。
我々の研究は、MSAリソースのみを活用するDAモデルを開発する機会を開く。
論文 参考訳(メタデータ) (2021-01-12T21:29:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。