論文の概要: Finetuning LLMs for EvaCun 2025 token prediction shared task
- arxiv url: http://arxiv.org/abs/2510.15561v1
- Date: Fri, 17 Oct 2025 11:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.603516
- Title: Finetuning LLMs for EvaCun 2025 token prediction shared task
- Title(参考訳): EvaCun 2025トークン予測共有タスクのための微調整LDM
- Authors: Josef Jon, Ondřej Bojar,
- Abstract要約: 本稿では,EvaCun 2025のトークン予測タスクについて述べる。
我々のsys-temsは、主催者が提供するタスクデータに基づいて微調整されたLLMに基づいている。
- 参考スコア(独自算出の注目度): 2.964978357715084
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present our submission for the token prediction task of EvaCun 2025. Our sys-tems are based on LLMs (Command-R, Mistral, and Aya Expanse) fine-tuned on the task data provided by the organizers. As we only pos-sess a very superficial knowledge of the subject field and the languages of the task, we simply used the training data without any task-specific adjustments, preprocessing, or filtering. We compare 3 different approaches (based on 3 different prompts) of obtaining the predictions, and we evaluate them on a held-out part of the data.
- Abstract(参考訳): 本稿では,EvaCun 2025のトークン予測タスクについて提案する。
LLM(Command-R,Mistral,Aya Expanse)に基づいて,組織が提供したタスクデータに基づいて微調整を行った。
対象のフィールドとタスクの言語について非常に表面的な知識しか持っていないので、タスク固有の調整、前処理、フィルタリングなしにトレーニングデータを単純に使いました。
我々は、予測を得るための3つの異なるアプローチ(3つの異なるプロンプトに基づく)を比較し、データの保持された部分でそれらを評価する。
関連論文リスト
- Aligning Instruction Tuning with Pre-training [61.50161961371844]
そこで我々は,AITP(Aligning Instruction Tuning with Pre-training)を提案する。
8つのベンチマークで3つの完全にオープンな大規模言語モデル(LLM)上で,AITPによる一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2025-01-16T08:27:40Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - The Eval4NLP 2023 Shared Task on Prompting Large Language Models as
Explainable Metrics [36.52897053496835]
生成型大規模言語モデル (LLM) は、タスクに関連する最小あるいは全くの例でタスクを解く顕著な能力を示している。
Eval4NLP 2023共有タスクを導入し、参加者に対して機械翻訳(MT)と要約評価のためのプロンプトとスコア抽出について検討する。
本稿では,参加者のアプローチの概要を述べるとともに,MTと要約データセットの3つの言語対にまたがる新しい参照なしテストセットについて評価する。
論文 参考訳(メタデータ) (2023-10-30T17:55:08Z) - Introducing "Forecast Utterance" for Conversational Data Science [2.3894779000840503]
本稿では,Forecast Utteranceという新しいコンセプトを紹介する。
次に,これらの発話からユーザの予測目標を自動的かつ正確に解釈することに集中する。
具体的には、各スロットが目標予測タスクの特定の側面に対応するスロット充足問題として、タスクをフレーム化する。
1) エンティティ抽出 (EE) と 2) 質問応答 (QA) の2つの手法を用いる。
論文 参考訳(メタデータ) (2023-09-07T17:41:41Z) - Alibaba-Translate China's Submission for WMT 2022 Metrics Shared Task [61.34108034582074]
私たちはUNITE(Unified Translation Evaluation)のコアアイデアに基づいてシステムを構築します。
モデル事前学習の段階では、まず擬似ラベル付きデータ例をUNITEの継続事前訓練に適用する。
微調整の段階では、過去のWMTコンペティションの直接評価(DA)と多次元品質メトリクス(MQM)のデータの両方を使用します。
論文 参考訳(メタデータ) (2022-10-18T08:51:25Z) - Team \'UFAL at CMCL 2022 Shared Task: Figuring out the correct recipe
for predicting Eye-Tracking features using Pretrained Language Models [9.087729124428467]
本稿では,眼球追跡情報予測のためのCMCL 2022共有タスクについて述べる。
提案は平均5.72のMAEを達成し,共有タスクでは5位にランクインした。
論文 参考訳(メタデータ) (2022-04-11T10:43:34Z) - Prompt-based Pre-trained Model for Personality and Interpersonal
Reactivity Prediction [19.288384399961867]
本稿では、LingJingチームによる主観性・感性・ソーシャルメディア分析に関するワークショップ(WASSA)2022におけるパーソナリティ予測(PER)と反応性指標予測(IRI)の共有タスクについて述べる。
論文 参考訳(メタデータ) (2022-03-23T15:22:34Z) - On the Transferability of Pre-trained Language Models: A Study from
Artificial Datasets [74.11825654535895]
大規模未ラベルテキストデータ上での事前学習言語モデル(LM)により、ダウンストリームのパフォーマンスが極めて容易になる。
我々は,事前学習データに含まれる特定の特徴について,セマンティクス以外では,下流タスクのスクラッチからトレーニングしたデータよりも,事前学習したLMを優れているか検討した。
論文 参考訳(メタデータ) (2021-09-08T10:39:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。