論文の概要: Exploring the Relationship Between Algorithm Performance, Vocabulary,
and Run-Time in Text Classification
- arxiv url: http://arxiv.org/abs/2104.03848v1
- Date: Thu, 8 Apr 2021 15:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 16:56:04.868172
- Title: Exploring the Relationship Between Algorithm Performance, Vocabulary,
and Run-Time in Text Classification
- Title(参考訳): テキスト分類におけるアルゴリズム性能,語彙,実行時間の関係を探る
- Authors: Wilson Fearn, Orion Weller, Kevin Seppi
- Abstract要約: 本研究では,前処理技術が語彙サイズ,モデル性能,実行時間に与える影響について検討する。
個々の手法が精度を損なわずに実行時間を短縮できるのに対し、いくつかの手法の組み合わせでは2-5%の精度で実行時間を最大65%削減できることを示す。
- 参考スコア(独自算出の注目度): 2.7261840344953807
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Text classification is a significant branch of natural language processing,
and has many applications including document classification and sentiment
analysis. Unsurprisingly, those who do text classification are concerned with
the run-time of their algorithms, many of which depend on the size of the
corpus' vocabulary due to their bag-of-words representation. Although many
studies have examined the effect of preprocessing techniques on vocabulary size
and accuracy, none have examined how these methods affect a model's run-time.
To fill this gap, we provide a comprehensive study that examines how
preprocessing techniques affect the vocabulary size, model performance, and
model run-time, evaluating ten techniques over four models and two datasets. We
show that some individual methods can reduce run-time with no loss of accuracy,
while some combinations of methods can trade 2-5% of the accuracy for up to a
65% reduction of run-time. Furthermore, some combinations of preprocessing
techniques can even provide a 15% reduction in run-time while simultaneously
improving model accuracy.
- Abstract(参考訳): テキスト分類は自然言語処理の重要な分野であり、文書分類や感情分析など多くの応用がある。
当然のことながら、テキスト分類を行う人はアルゴリズムの実行時間に関係しており、その多くは単語の袋の表現のため、コーパスの語彙のサイズに依存する。
多くの研究で前処理技術が語彙サイズや正確性に与える影響が研究されているが、モデルの実行時間にどのように影響するかは調査されていない。
このギャップを埋めるため,前処理技術が語彙サイズ,モデル性能,モデル実行時間にどのように影響するかを総合的に検討し,4つのモデルと2つのデータセットで10の技術を評価した。
個々の手法が精度を損なわずに実行時間を短縮できるのに対し、いくつかの手法の組み合わせでは2-5%の精度で実行時間を最大65%削減できることを示す。
さらに、いくつかの前処理技術の組み合わせは、モデルの精度を向上しながら、実行時間を15%削減できる。
関連論文リスト
- Ensembling Finetuned Language Models for Text Classification [55.15643209328513]
ファインタニング(英: Finetuning)は、特定のタスクに事前訓練されたモデルを適用するために、様々なコミュニティで一般的なプラクティスである。
ニューラルネットワークのアンサンブルは、通常、パフォーマンスを高め、信頼性の高い不確実性推定を提供するために使用される。
6つのデータセット上の5つの大きめのモデルから予測されたメタデータセットを提示し、異なるアンサンブル戦略の結果を報告する。
論文 参考訳(メタデータ) (2024-10-25T09:15:54Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z) - Comparison between parameter-efficient techniques and full fine-tuning: A case study on multilingual news article classification [4.498100922387482]
Adapters and Low-Rank Adaptation (LoRA)は、言語モデルのトレーニングをより効率的にするために設計されたパラメータ効率の良い微調整技術である。
過去の結果は,これらの手法がいくつかの分類タスクの性能を向上させることさえできることを示した。
本稿では,これらの手法が完全微調整と比較して分類性能と計算コストに与える影響について検討する。
論文 参考訳(メタデータ) (2023-08-14T17:12:43Z) - Analyzing and Reducing the Performance Gap in Cross-Lingual Transfer
with Fine-tuning Slow and Fast [50.19681990847589]
既存の研究では、1つの(ソース)言語で微調整された多言語事前学習言語モデルが、非ソース言語の下流タスクでもうまく機能していることが示されている。
本稿では、微調整プロセスを分析し、パフォーマンスギャップがいつ変化するかを分析し、ネットワークの重みが全体のパフォーマンスに最も影響するかを特定する。
論文 参考訳(メタデータ) (2023-05-19T06:04:21Z) - Quantitative Stopword Generation for Sentiment Analysis via Recursive
and Iterative Deletion [2.0305676256390934]
ストップワードは意味情報をほとんど持たず、しばしばデータセットのサイズを減らすためにテキストデータから削除される。
特定のNLPタスクに対して効率的な停止語セットを生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-04T03:04:10Z) - Sentiment analysis in tweets: an assessment study from classical to
modern text representation models [59.107260266206445]
Twitterで公開された短いテキストは、豊富な情報源として大きな注目を集めている。
非公式な言語スタイルや騒々しい言語スタイルといったそれらの固有の特徴は、多くの自然言語処理(NLP)タスクに挑戦し続けている。
本研究では,22データセットの豊富なコレクションを用いて,ツイートに表される感情を識別する既存言語モデルの評価を行った。
論文 参考訳(メタデータ) (2021-05-29T21:05:28Z) - Grounded Compositional Outputs for Adaptive Language Modeling [59.02706635250856]
言語モデルの語彙$-$典型的にはトレーニング前に選択され、後で永久に固定される$-$は、そのサイズに影響します。
言語モデルのための完全合成出力埋め込み層を提案する。
我々の知る限り、この結果はトレーニング語彙に依存しないサイズを持つ最初の単語レベル言語モデルである。
論文 参考訳(メタデータ) (2020-09-24T07:21:14Z) - Word Embeddings: Stability and Semantic Change [0.0]
本稿では,過去10年で最も影響力のある埋め込み技術である word2vec, GloVe, fastText のトレーニングプロセスの不安定性について実験的に検討する。
本稿では,埋め込み手法の不安定性を記述する統計モデルを提案し,個々の単語の表現の不安定性を測定するための新しい指標を提案する。
論文 参考訳(メタデータ) (2020-07-23T16:03:50Z) - Deep learning models for representing out-of-vocabulary words [1.4502611532302039]
本稿では,語彙外(OOV)単語を表現するためのディープラーニングモデルの性能評価を行う。
OOV単語を扱うための最善のテクニックはタスクごとに異なるが、OV単語のコンテキストと形態構造に基づいて埋め込みを推論する深層学習手法であるComickは、有望な結果を得た。
論文 参考訳(メタデータ) (2020-07-14T19:31:25Z) - FastWordBug: A Fast Method To Generate Adversarial Text Against NLP
Applications [0.5524804393257919]
我々は,ブラックボックス設定でテキストの摂動を効率的に生成する新しいアルゴリズムであるFastWordBugを提案する。
我々は,3つの実世界のテキストデータセットと2つの最先端機械学習モデルに対して,ブラックボックス設定下でFastWordBugを評価する。
論文 参考訳(メタデータ) (2020-01-31T07:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。