論文の概要: Annif at the GermEval-2025 LLMs4Subjects Task: Traditional XMTC Augmented by Efficient LLMs
- arxiv url: http://arxiv.org/abs/2508.15877v1
- Date: Thu, 21 Aug 2025 14:04:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.141195
- Title: Annif at the GermEval-2025 LLMs4Subjects Task: Traditional XMTC Augmented by Efficient LLMs
- Title(参考訳): GermEval-2025 LLMs4Subjects Task: 効率的なLLMで強化された従来のXMTC
- Authors: Osma Suominen, Juho Inkinen, Mona Lehtinen,
- Abstract要約: 本稿では,GermEval-2025におけるLLMs4Subjects(Subtask 2)におけるAnnifシステムについて述べる。
このタスクは、計算効率に特に焦点をあてた大きな言語モデルを用いて、レコードの主題予測を作成する必要があった。
- 参考スコア(独自算出の注目度): 0.03743146689655111
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents the Annif system in the LLMs4Subjects shared task (Subtask 2) at GermEval-2025. The task required creating subject predictions for bibliographic records using large language models, with a special focus on computational efficiency. Our system, based on the Annif automated subject indexing toolkit, refines our previous system from the first LLMs4Subjects shared task, which produced excellent results. We further improved the system by using many small and efficient language models for translation and synthetic data generation and by using LLMs for ranking candidate subjects. Our system ranked 1st in the overall quantitative evaluation of and 1st in the qualitative evaluation of Subtask 2.
- Abstract(参考訳): 本稿では,GermEval-2025におけるLLMs4Subjects共有タスク(Subtask 2)におけるAnnifシステムについて述べる。
このタスクでは、大規模言語モデルを用いた書誌記録の主題予測の作成が必要となり、特に計算効率に重点が置かれた。
The Annif automated subject indexing Toolkit, based on the Annif, based on the previous system from the first LLMs4Subjects shared task, which produced great results。
我々は、翻訳と合成データ生成に多くの小型で効率的な言語モデルを使用し、候補候補のランク付けにLLMを使用することにより、システムをさらに改善した。
本システムでは,Subtask 2の質的評価において,総合的な定量的評価では1位,定性評価では1位にランクインした。
関連論文リスト
- On the Effectiveness of LLM-as-a-judge for Code Generation and Summarization [54.965787768076254]
大規模言語モデルは、最近、Q&Aのような複雑な自然言語処理タスクの裁判官として活用されている。
コード生成とコード要約という2つのコード関連タスクに対するLLMs-as-a-judgeの有効性について検討した。
論文 参考訳(メタデータ) (2025-07-22T13:40:26Z) - An Empirical Study of Many-to-Many Summarization with Large Language Models [82.10000188179168]
大規模言語モデル(LLM)は強い多言語能力を示しており、実アプリケーションでM2MS(Multi-to-Many summarization)を実行する可能性を秘めている。
本研究は,LLMのM2MS能力に関する系統的研究である。
論文 参考訳(メタデータ) (2025-05-19T11:18:54Z) - Annif at SemEval-2025 Task 5: Traditional XMTC augmented by LLMs [0.0]
本稿では,SemEval-2025タスク5(LLM)におけるAnnifシステムについて述べる。
大規模言語モデルを用いた主観的索引付けに重点を置いている。
我々のアプローチは、従来の自然言語処理と機械学習技術を組み合わせています。
論文 参考訳(メタデータ) (2025-04-28T11:04:23Z) - SemEval-2025 Task 5: LLMs4Subjects -- LLM-based Automated Subject Tagging for a National Technical Library's Open-Access Catalog [0.0]
本稿では,SemEval-2025 Task 5: LLMs4Subjectsについて紹介する。
参加者は、トップk被験者を推薦するシステムを開発し、定量的指標(精度、リコール、F1スコア)と、被験者の専門家による質的評価を通じて評価した。
論文 参考訳(メタデータ) (2025-04-09T18:26:46Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Zero-Shot Cross-Lingual Reranking with Large Language Models for
Low-Resource Languages [51.301942056881146]
アフリカ語における言語間情報検索システムにおいて,大規模言語モデル (LLM) がリランカーとしてどのように機能するかを検討する。
私たちの実装は、英語と4つのアフリカの言語(ハウサ語、ソマリ語、スワヒリ語、ヨルバ語)を対象としています。
我々は、英語のクェリとアフリカの言葉の文節による言語横断的な格付けについて検討する。
論文 参考訳(メタデータ) (2023-12-26T18:38:54Z) - Benchmarking Generation and Evaluation Capabilities of Large Language Models for Instruction Controllable Summarization [132.25202059478065]
命令制御可能なテキスト要約の大規模言語モデル(LLM)をベンチマークする。
本研究は,LLMにおいて,命令制御可能なテキスト要約が依然として困難な課題であることを示す。
論文 参考訳(メタデータ) (2023-11-15T18:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。