論文の概要: OUNLP at TSAR 2025 Shared Task: Multi-Round Text Simplifier via Code Generation
- arxiv url: http://arxiv.org/abs/2511.04495v1
- Date: Thu, 06 Nov 2025 16:16:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.495739
- Title: OUNLP at TSAR 2025 Shared Task: Multi-Round Text Simplifier via Code Generation
- Title(参考訳): OUNLP at TSAR 2025 Shared Task: Multi-Round Text Simplifier via Code Generation (英語)
- Authors: Cuong Huynh, Jie Cao,
- Abstract要約: 本稿では、TSAR-2025共有タスク(Alva-Manchego et al., 2025)に提出されたOUNLPシステムについて述べる。
LLM-prompting-based generation を用いた可読性制御テキストの簡易化のために設計されている。
- 参考スコア(独自算出の注目度): 3.117899569620301
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper describes the OUNLP system submitted to the TSAR-2025 Shared Task (Alva-Manchego et al., 2025), designed for readability-controlled text simplification using LLM-prompting-based generation. Based on the analysis of prompt-based text simplification methods, we discovered an interesting finding that text simplification performance is highly related to the gap between the source CEFR (Arase et al., 2022) level and the target CEFR level. Inspired by this finding, we propose two multi-round simplification methods and generate them via GPT-4o: rule-based simplification (MRS-Rule) and jointly rule-based LLM simplification (MRS-Joint). Our submitted systems ranked 7 out of 20 teams. Later improvements with MRS-Joint show that taking the LLM simplified candidates as the starting point could further boost the multi-round simplification performance.
- Abstract(参考訳): 本稿では, TSAR-2025共有タスク(Alva-Manchego et al , 2025)に送信されたOUNLPシステムについて述べる。
テキストの簡易化手法を解析した結果,テキストの簡易化性能がCEFR(Arase et al , 2022)レベルとCEFRレベルとの差と高い関係があることが判明した。
そこで本研究では,ルールベース簡易化 (MRS-Rule) と共同ルールベースLCM簡易化 (MRS-Joint) の2つの手法を提案し,GPT-4oを用いて生成する。
提出されたシステムは20チーム中7チームだった。
MRS-Jointによる後の改良により、LSMは候補を出発点として単純化し、マルチラウンドの単純化性能をさらに向上することを示した。
関連論文リスト
- Facilitating Cognitive Accessibility with LLMs: A Multi-Task Approach to Easy-to-Read Text Generation [2.5978291328554373]
ETR(Easy-to-Read)イニシアチブは、ニューロディバージェント人口にコンテンツがアクセスできるようにするためのフレームワークを提供する。
本研究では,大規模言語モデル(LLM)のERRコンテンツの自動生成の可能性について検討する。
本稿では,テキスト要約,テキスト単純化,ETR生成を併用したマルチタスク学習(MTL)手法を提案する。
論文 参考訳(メタデータ) (2025-10-01T08:44:05Z) - Hallucination Detection and Mitigation in Scientific Text Simplification using Ensemble Approaches: DS@GT at CLEF 2025 SimpleText [0.0]
CLEF 2025 SimpleText Task 2の方法論について述べる。
我々はBERTベースの分類器、意味的類似度尺度、自然言語推論モデル、および大規模言語モデルを活用するアンサンブルフレームワークを構築する。
基底生成にはLLMベースの後編集システムを使用し、元の入力テキストに基づいて単純化を改訂する。
論文 参考訳(メタデータ) (2025-08-15T21:57:27Z) - LLM-Guided Planning and Summary-Based Scientific Text Simplification: DS@GT at CLEF 2025 SimpleText [0.0]
本稿では,文レベルと文書レベルの両方を簡略化したCLEF 2025 SimpleText Task 1を提案する。
文レベルの単純化には,まず大規模言語モデル(LLM)を用いて構造化計画を生成し,次いで個別文の計画駆動の単純化を行う。
文書レベルでは、LCMを活用して簡潔な要約を作成し、その後、これらの要約を用いて単純化プロセスを導出する。
論文 参考訳(メタデータ) (2025-08-15T21:44:52Z) - Distilling Transitional Pattern to Large Language Models for Multimodal Session-based Recommendation [67.84581846180458]
セッションベースのレコメンデーション(SBR)は、匿名セッションに基づいて次の項目を予測する。
近年のMultimodal SBR法は、モダリティ学習に単純化された事前学習モデルを用いるが、セマンティック・リッチネスに制限がある。
蒸留パラダイムを拡張し,MSBRの促進のための遷移パターンを分離・整合させる多モードLCM拡張フレームワークTPADを提案する。
論文 参考訳(メタデータ) (2025-04-13T07:49:08Z) - Progressive Document-level Text Simplification via Large Language Models [19.57555397986868]
長い文書レベルの単純化(DS)はいまだに未調査である。
本稿では,タスクを階層的に分解してプログレッシブ単純化手法(ProgDS)を提案する。
論文 参考訳(メタデータ) (2025-01-07T15:14:37Z) - Blending LLMs into Cascaded Speech Translation: KIT's Offline Speech Translation System for IWSLT 2024 [61.189875635090225]
大規模言語モデル (LLM) は現在,自動音声認識 (ASR) や機械翻訳 (MT) ,さらにはエンドツーエンド音声翻訳 (ST) など,さまざまなタスクを探索中である。
論文 参考訳(メタデータ) (2024-06-24T16:38:17Z) - Large Language Models are Effective Text Rankers with Pairwise Ranking Prompting [65.00288634420812]
Pairwise Ranking Prompting (PRP)は、大規模言語モデル(LLM)の負担を大幅に軽減する手法である。
本研究は,中等級のオープンソースLCMを用いた標準ベンチマークにおいて,最先端のランク付け性能を達成した文献としては初めてである。
論文 参考訳(メタデータ) (2023-06-30T11:32:25Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - MANTIS at TSAR-2022 Shared Task: Improved Unsupervised Lexical
Simplification with Pretrained Encoders [31.64341800095214]
我々は,テキストの簡略化,アクセシビリティ,可読性に関するEMNLP 2022ワークショップの,語彙的単純化に関するTSAR-2022共有タスクへの貢献を紹介する。
我々のアプローチは、事前訓練エンコーダ(LSBert)システムを用いて、教師なし語彙単純化システムを構築し、拡張する。
当社のベストパフォーマンスシステムはLSBertの精度を5.9%向上し,33位中2位となった。
論文 参考訳(メタデータ) (2022-12-19T20:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。