論文の概要: State of the Art in Text Classification for South Slavic Languages: Fine-Tuning or Prompting?
- arxiv url: http://arxiv.org/abs/2511.07989v1
- Date: Wed, 12 Nov 2025 01:32:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.583906
- Title: State of the Art in Text Classification for South Slavic Languages: Fine-Tuning or Prompting?
- Title(参考訳): 南スラヴ語におけるテクスト分類の現状:微調整かプロンプトか?
- Authors: Taja Kuzman Pungeršek, Peter Rupnik, Ivan Porupski, Vuk Dinić, Nikola Ljubešić,
- Abstract要約: 最近まで、細調整のBERTライクなモデルでは、テキスト分類タスクで最先端のパフォーマンスが提供されていた。
命令調整されたデコーダのみのモデル(一般には大きな言語モデル(LLM)として知られる)の台頭により、フィールドはゼロショットと少数ショットのプロンプトへと向かっている。
いくつかの南スラヴ語におけるテキスト分類タスクにおける現在の言語モデルの性能を評価する。
- 参考スコア(独自算出の注目度): 0.5281705920363684
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Until recently, fine-tuned BERT-like models provided state-of-the-art performance on text classification tasks. With the rise of instruction-tuned decoder-only models, commonly known as large language models (LLMs), the field has increasingly moved toward zero-shot and few-shot prompting. However, the performance of LLMs on text classification, particularly on less-resourced languages, remains under-explored. In this paper, we evaluate the performance of current language models on text classification tasks across several South Slavic languages. We compare openly available fine-tuned BERT-like models with a selection of open-source and closed-source LLMs across three tasks in three domains: sentiment classification in parliamentary speeches, topic classification in news articles and parliamentary speeches, and genre identification in web texts. Our results show that LLMs demonstrate strong zero-shot performance, often matching or surpassing fine-tuned BERT-like models. Moreover, when used in a zero-shot setup, LLMs perform comparably in South Slavic languages and English. However, we also point out key drawbacks of LLMs, including less predictable outputs, significantly slower inference, and higher computational costs. Due to these limitations, fine-tuned BERT-like models remain a more practical choice for large-scale automatic text annotation.
- Abstract(参考訳): 最近まで、細調整のBERTライクなモデルでは、テキスト分類タスクで最先端のパフォーマンスが提供されていた。
命令調整されたデコーダのみのモデル(一般には大きな言語モデル(LLM)として知られる)の台頭により、フィールドはゼロショットと少数ショットのプロンプトへと向かっている。
しかし、テキスト分類における LLM の性能、特に低リソース言語では、未探索のままである。
本稿では,南スラヴ語におけるテキスト分類タスクにおける現在の言語モデルの性能を評価する。
本稿では,3つの領域にまたがって,オープンソースおよびクローズド・ソースのLCMを3つのタスクで選択したBERTライクなモデルと比較する。
以上の結果から,LLMは高いゼロショット性能を示し,細調整のBERTライクなモデルによく適合または超越していることがわかった。
さらに、ゼロショット設定で使用する場合、LLMは南スラヴ語と英語で比較可能となる。
しかし,予測可能な出力の削減,推論の高速化,計算コストの向上など,LLMの欠点も指摘している。
これらの制限のため、細調整されたBERTのようなモデルは、大規模な自動テキストアノテーションにとってより実用的な選択肢である。
関連論文リスト
- Benchmarking Large Language Models for Handwritten Text Recognition [0.061446808540639365]
MLLM(Multimodal Large Language Models)は、モデル固有のトレーニングを必要とせずに、さまざまな手書きスタイルを認識するための一般的なアプローチを提供する。
この研究は、トランスクリバスモデルに対する様々なプロプライエタリでオープンソースのLCMをベンチマークし、英語、フランス語、ドイツ語、イタリア語で書かれた近代的および歴史的データセットのパフォーマンスを評価した。
論文 参考訳(メタデータ) (2025-03-19T13:33:29Z) - Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキストへの微調整テキスト埋め込みモデルにより,優れた分類精度が得られることがわかった。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Text Classification in the LLM Era - Where do we stand? [2.7624021966289605]
大規模言語モデルはNLPに革命をもたらし、いくつかのタスクで劇的なパフォーマンス向上を示した。
テキスト分類におけるそのような言語モデルの役割と,他の手法との比較について検討した。
論文 参考訳(メタデータ) (2025-02-17T14:25:54Z) - Exploring the Role of Transliteration in In-Context Learning for Low-resource Languages Written in Non-Latin Scripts [50.40191599304911]
非ラテン文字で書かれた低リソース言語に対するLLMの性能向上にも効果があるか検討する。
本稿では,(1) の原文,(2) ラテン文字,(3) の両文を対象とする3つのプロンプトテンプレートを提案する。
本研究の結果から,翻訳の有効性はタスクタイプやモデルサイズによって異なることが明らかとなった。
論文 参考訳(メタデータ) (2024-07-02T14:51:20Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。