論文の概要: Temporal Text Classification with Large Language Models
- arxiv url: http://arxiv.org/abs/2603.11295v1
- Date: Wed, 11 Mar 2026 20:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.634337
- Title: Temporal Text Classification with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたテンポラルテキスト分類
- Authors: Nishat Raihan, Marcos Zampieri,
- Abstract要約: 本研究は,テキストの自動日付付けにおいて,プロプライエタリでオープンソースのLarge Language Models (LLM) を先導する最初の体系的評価を提供する。
結果から,プロプライエタリなモデルでは特に数発のプロンプトが有効であることが示唆された。
また、ファインチューニングはオープンソースモデルを大幅に改善するが、プロプライエタリなLLMが提供したパフォーマンスと相容れないことも示している。
- 参考スコア(独自算出の注目度): 16.19954497057196
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Languages change over time. Computational models can be trained to recognize such changes enabling them to estimate the publication date of texts. Despite recent advancements in Large Language Models (LLMs), their performance on automatic dating of texts, also known as Temporal Text Classification (TTC), has not been explored. This study provides the first systematic evaluation of leading proprietary (Claude 3.5, GPT-4o, Gemini 1.5) and open-source (LLaMA 3.2, Gemma 2, Mistral, Nemotron 4) LLMs on TTC using three historical corpora, two in English and one in Portuguese. We test zero-shot and few-shot prompting, and fine-tuning settings. Our results indicate that proprietary models perform well, especially with few-shot prompting. They also indicate that fine-tuning substantially improves open-source models but that they still fail to match the performance delivered by proprietary LLMs.
- Abstract(参考訳): 言語は時とともに変化する。
計算モデルは、そのような変更を認識して、テキストの公開日を見積もることができるように訓練することができる。
近年のLarge Language Models (LLMs) の進歩にもかかわらず、テキストの自動日付付け(TTC)の性能は検討されていない。
本研究は,主要なプロプライエタリ(Claude 3.5, GPT-4o, Gemini 1.5)とオープンソース(LLaMA 3.2, Gemma 2, Mistral, Nemotron 4)のTLC上のLLMを,3つの歴史的コーパスを用いて,初めて体系的に評価したものである。
ゼロショットと少数ショットのプロンプト、微調整の設定をテストしています。
結果から,プロプライエタリなモデルでは特に数発のプロンプトが有効であることが示唆された。
また、ファインチューニングはオープンソースモデルを大幅に改善するが、プロプライエタリなLLMが提供したパフォーマンスと相容れないことも示している。
関連論文リスト
- State of the Art in Text Classification for South Slavic Languages: Fine-Tuning or Prompting? [0.5281705920363684]
最近まで、細調整のBERTライクなモデルでは、テキスト分類タスクで最先端のパフォーマンスが提供されていた。
命令調整されたデコーダのみのモデル(一般には大きな言語モデル(LLM)として知られる)の台頭により、フィールドはゼロショットと少数ショットのプロンプトへと向かっている。
いくつかの南スラヴ語におけるテキスト分類タスクにおける現在の言語モデルの性能を評価する。
論文 参考訳(メタデータ) (2025-11-11T08:54:15Z) - mmBERT: A Modern Multilingual Encoder with Annealed Language Learning [57.58071656545661]
mmBERTは、多言語テキストの3Tトークンで事前訓練されたエンコーダのみの言語モデルである。
データに1700以上の低リソース言語を追加しています。
分類および検索タスクにおける従来のモデルよりも, mmBERTの方が優れていたことを示す。
論文 参考訳(メタデータ) (2025-09-08T17:08:42Z) - An Empirical Study of Many-to-Many Summarization with Large Language Models [82.10000188179168]
大規模言語モデル(LLM)は強い多言語能力を示しており、実アプリケーションでM2MS(Multi-to-Many summarization)を実行する可能性を秘めている。
本研究は,LLMのM2MS能力に関する系統的研究である。
論文 参考訳(メタデータ) (2025-05-19T11:18:54Z) - M-Prometheus: A Suite of Open Multilingual LLM Judges [65.63858815169924]
M-Prometheusは,多言語出力の直接評価とペア比較フィードバックを両立できるオープンウェイトLLM判定器のスイートである。
M-Prometheusモデルは、20以上の言語にまたがる多言語報酬ベンチマークや、4つの言語対をカバーする文語機械翻訳(MT)評価において、最先端のLLM判事より優れている。
論文 参考訳(メタデータ) (2025-04-07T11:37:26Z) - Benchmarking Large Language Models for Handwritten Text Recognition [0.061446808540639365]
MLLM(Multimodal Large Language Models)は、モデル固有のトレーニングを必要とせずに、さまざまな手書きスタイルを認識するための一般的なアプローチを提供する。
この研究は、トランスクリバスモデルに対する様々なプロプライエタリでオープンソースのLCMをベンチマークし、英語、フランス語、ドイツ語、イタリア語で書かれた近代的および歴史的データセットのパフォーマンスを評価した。
論文 参考訳(メタデータ) (2025-03-19T13:33:29Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。