論文の概要: BOE-XSUM: Extreme Summarization in Clear Language of Spanish Legal Decrees and Notifications
- arxiv url: http://arxiv.org/abs/2509.24908v1
- Date: Mon, 29 Sep 2025 15:15:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.083072
- Title: BOE-XSUM: Extreme Summarization in Clear Language of Spanish Legal Decrees and Notifications
- Title(参考訳): BOE-XSUM: スペインの法律規則と通知の明確化における極端要約
- Authors: Andrés Fernández García, Javier de la Rosa, Julio Gonzalo, Roser Morante, Enrique Amigó, Alejandro Benito-Santos, Jorge Carrillo-de-Albornoz, Víctor Fresno, Adrian Ghajari, Guillermo Marco, Laura Plaza, Eva Sánchez Salido,
- Abstract要約: BOE-XSUM は、スペイン語の Bolet'in Oficial del Estado' (BOE) に由来する3,648の簡潔で平易な要約からなるキュレートされたデータセットである。
BOE-XSUMで微調整した中型大言語モデルの性能評価を行い,ゼロショット環境での汎用生成モデルと比較した。
最高のパフォーマンスモデルであるBERTIN GPT-J 6B(32ビット精度)は、トップのゼロショットモデルであるDeepSeek-R1よりも24%パフォーマンスが向上する。
- 参考スコア(独自算出の注目度): 39.04061255202304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to summarize long documents succinctly is increasingly important in daily life due to information overload, yet there is a notable lack of such summaries for Spanish documents in general, and in the legal domain in particular. In this work, we present BOE-XSUM, a curated dataset comprising 3,648 concise, plain-language summaries of documents sourced from Spain's ``Bolet\'{\i}n Oficial del Estado'' (BOE), the State Official Gazette. Each entry in the dataset includes a short summary, the original text, and its document type label. We evaluate the performance of medium-sized large language models (LLMs) fine-tuned on BOE-XSUM, comparing them to general-purpose generative models in a zero-shot setting. Results show that fine-tuned models significantly outperform their non-specialized counterparts. Notably, the best-performing model -- BERTIN GPT-J 6B (32-bit precision) -- achieves a 24\% performance gain over the top zero-shot model, DeepSeek-R1 (accuracies of 41.6\% vs.\ 33.5\%).
- Abstract(参考訳): 長い文書を簡潔に要約する能力は、情報過剰により日常生活においてますます重要になっているが、スペインの文書全般、特に法的領域にはそのような要約が欠如している。
本稿では,スペインの『Bolet\'{\i}n Oficial del Estado'』(BOE)から得られた,3,648の簡潔で平易な文書の要約からなるキュレートされたデータセットBOE-XSUMについて述べる。
データセットの各エントリには、短い要約、元のテキスト、ドキュメントタイプラベルが含まれている。
BOE-XSUMを用いた中規模大言語モデル(LLM)の性能評価を行い,0ショット設定で汎用生成モデルと比較した。
その結果,微調整モデルでは,非特殊化モデルよりも有意に優れていた。
特に、最高のパフォーマンスモデルであるBERTIN GPT-J 6B(32ビット精度)は、トップゼロショットモデルであるDeepSeek-R1(41.6倍の精度)よりも24倍のパフォーマンス向上を実現している。
33.5 %)。
関連論文リスト
- MTEB-French: Resources for French Sentence Embedding Evaluation and Analysis [1.5761916307614148]
本稿では,フランス語の文埋め込みに関する最初のベンチマークを提案する。
51個の埋め込みモデルを大規模に比較した。
すべてのタスクにおいてモデルが最良でない場合でも、文類似性に基づいて事前訓練された大規模多言語モデルは非常によく機能することがわかった。
論文 参考訳(メタデータ) (2024-05-30T20:34:37Z) - On Context Utilization in Summarization with Large Language Models [83.84459732796302]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - Cross-lingual Cross-temporal Summarization: Dataset, Models, Evaluation [20.675242617417677]
言語横断要約(CLCTS)は、文化的アクセシビリティと理解を向上する可能性を持つ、ほとんど探索されていない領域である。
本稿では、データセット作成、モデリング、評価を含むCLCTSタスクを包括的に扱う。
論文 参考訳(メタデータ) (2023-06-22T14:31:18Z) - LMGQS: A Large-scale Dataset for Query-focused Summarization [77.6179359525065]
我々は4つの一般的な要約ベンチマークを新しいQFSベンチマークデータセットであるLMGQSに変換する。
我々は最先端の要約モデルを用いてベースラインを確立する。
複数の既存のQFSベンチマークにおいて、最先端のゼロショットと教師付きパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-22T14:53:45Z) - GAE-ISumm: Unsupervised Graph-Based Summarization of Indian Languages [5.197307534263253]
文書要約は、テキスト文書の正確で一貫性のある要約を作成することを目的としている。
多くのディープラーニングの要約モデルは、主に英語向けに開発されており、大きなトレーニングコーパスを必要とすることが多い。
本稿では,テキスト文書から要約を抽出する教師なしのIndic summarizationモデルであるGAE-ISummを提案する。
論文 参考訳(メタデータ) (2022-12-25T17:20:03Z) - mFACE: Multilingual Summarization with Factual Consistency Evaluation [79.60172087719356]
抽象的な要約は、事前訓練された言語モデルと大規模データセットの可用性のおかげで、近年で新たな関心を集めている。
有望な結果にもかかわらず、現在のモデルはいまだに現実的に矛盾した要約を生み出すことに苦しむ。
事実整合性評価モデルを利用して、多言語要約を改善する。
論文 参考訳(メタデータ) (2022-12-20T19:52:41Z) - CNewSum: A Large-scale Chinese News Summarization Dataset with
Human-annotated Adequacy and Deducibility Level [15.969302324314516]
大規模中国語ニュース要約データセットCNewSumについて述べる。
304,307件の文書と人によるニュースフィードの要約で構成されている。
そのテストセットには、要約のための妥当性と再現性アノテーションが含まれている。
論文 参考訳(メタデータ) (2021-10-21T03:37:46Z) - Liputan6: A Large-scale Indonesian Dataset for Text Summarization [43.375797352517765]
オンラインニュースポータルであるLiputan6.comから記事を抽出し、215,827のドキュメント-要約ペアを取得する。
事前学習した言語モデルを用いて,データセット上のベンチマーク抽出および抽象的要約手法を開発する。
論文 参考訳(メタデータ) (2020-11-02T02:01:12Z) - Towards Making the Most of Context in Neural Machine Translation [112.9845226123306]
我々は、これまでの研究がグローバルな文脈をはっきりと利用しなかったと論じている。
本研究では,各文の局所的文脈を意図的にモデル化する文書レベルNMTフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-19T03:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。