論文の概要: LLM-Guided Planning and Summary-Based Scientific Text Simplification: DS@GT at CLEF 2025 SimpleText
- arxiv url: http://arxiv.org/abs/2508.11816v1
- Date: Fri, 15 Aug 2025 21:44:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.389489
- Title: LLM-Guided Planning and Summary-Based Scientific Text Simplification: DS@GT at CLEF 2025 SimpleText
- Title(参考訳): LLM-Guided Planning and Summary-based Scientific Text Simplification: DS@GT at CLEF 2025 SimpleText (英語)
- Authors: Krishna Chaitanya Marturi, Heba H. Elwazzan,
- Abstract要約: 本稿では,文レベルと文書レベルの両方を簡略化したCLEF 2025 SimpleText Task 1を提案する。
文レベルの単純化には,まず大規模言語モデル(LLM)を用いて構造化計画を生成し,次いで個別文の計画駆動の単純化を行う。
文書レベルでは、LCMを活用して簡潔な要約を作成し、その後、これらの要約を用いて単純化プロセスを導出する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present our approach for the CLEF 2025 SimpleText Task 1, which addresses both sentence-level and document-level scientific text simplification. For sentence-level simplification, our methodology employs large language models (LLMs) to first generate a structured plan, followed by plan-driven simplification of individual sentences. At the document level, we leverage LLMs to produce concise summaries and subsequently guide the simplification process using these summaries. This two-stage, LLM-based framework enables more coherent and contextually faithful simplifications of scientific text.
- Abstract(参考訳): 本稿では,文レベルと文書レベルの両方を簡略化したCLEF 2025 SimpleText Task 1を提案する。
文レベルの単純化には,まず大規模言語モデル(LLM)を用いて構造化計画を生成し,次いで個別文の計画駆動の単純化を行う。
文書レベルでは、LCMを活用して簡潔な要約を作成し、その後、これらの要約を用いて単純化プロセスを導出する。
この2段階のLCMベースのフレームワークは、より一貫性があり、文脈的に忠実な科学的テキストの単純化を可能にする。
関連論文リスト
- Hallucination Detection and Mitigation in Scientific Text Simplification using Ensemble Approaches: DS@GT at CLEF 2025 SimpleText [0.0]
CLEF 2025 SimpleText Task 2の方法論について述べる。
我々はBERTベースの分類器、意味的類似度尺度、自然言語推論モデル、および大規模言語モデルを活用するアンサンブルフレームワークを構築する。
基底生成にはLLMベースの後編集システムを使用し、元の入力テキストに基づいて単純化を改訂する。
論文 参考訳(メタデータ) (2025-08-15T21:57:27Z) - Aligning Sentence Simplification with ESL Learner's Proficiency for Language Acquisition [11.700462697630696]
本研究は,第2言語学習者の簡易化による英語習得を支援することを目的としている。
本稿では,複雑な文を学習者に適したレベルに単純化すると同時に,目的レベルの語彙的カバレッジを高めることを提案する。
本手法では,トークンレベルの報酬と文レベルの報酬を用いて,目標属性を満たす単純化仮説を探索するために,自己生成出力のモデルを反復的に訓練する。
論文 参考訳(メタデータ) (2025-02-17T05:32:56Z) - Progressive Document-level Text Simplification via Large Language Models [19.57555397986868]
長い文書レベルの単純化(DS)はいまだに未調査である。
本稿では,タスクを階層的に分解してプログレッシブ単純化手法(ProgDS)を提案する。
論文 参考訳(メタデータ) (2025-01-07T15:14:37Z) - Simple is not Enough: Document-level Text Simplification using Readability and Coherence [20.613410797137036]
我々は,コヒーレンスなどの簡易性,可読性,談話性を考慮した簡易化モデルであるSimDocシステムを提案する。
私たちは、シンプルさ、可読性、一貫性をすべて考慮し、トレーニング中に複数の目標を含みます。
本稿では、文書レベルのTSコーパスを用いて、ゼロショット、少数ショット、微調整設定で提案したモデルを評価する。
論文 参考訳(メタデータ) (2024-12-24T19:05:21Z) - Integrating Planning into Single-Turn Long-Form Text Generation [66.08871753377055]
長文コンテンツを生成するための計画案を提案する。
私たちの主な新規性は、複数のプロンプトや計画のラウンドを必要としない単一の補助的なタスクにあります。
実験では,LLMを補助タスクで微調整し,高品質な文書を生成する,異なる領域からの2つのデータセットを実証した。
論文 参考訳(メタデータ) (2024-10-08T17:02:40Z) - DECIDER: A Dual-System Rule-Controllable Decoding Framework for Language Generation [57.07295906718989]
制約付き復号法は,事前訓練された大言語(Ms と PLMs)が生成するテキストの意味やスタイルを,推論時に様々なタスクに対して制御することを目的としている。
これらの方法は、しばしば、欲求的かつ明示的にターゲットを選択することによって、もっともらしい連続を導く。
認知二重プロセス理論に着想を得て,新しい復号化フレームワークDECDERを提案する。
論文 参考訳(メタデータ) (2024-03-04T11:49:08Z) - Teaching the Pre-trained Model to Generate Simple Texts for Text
Simplification [59.625179404482594]
トレーニング前の段階では、ランダムなマスキングテキストが通常のテキストに分散しているため、モデルは単純なテキストを生成する能力を得ることができない。
簡単なテキストを生成するための事前学習モデルを学習するための,新たな事前学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-21T14:03:49Z) - Elaborative Simplification as Implicit Questions Under Discussion [51.17933943734872]
本稿では,QUD フレームワークのレンズによる共同作業の簡略化について考察する。
本研究は,QUDを明示的にモデル化することで,作業の単純化と,作業内容と作業内容の関連性について,重要な理解が得られていることを示す。
論文 参考訳(メタデータ) (2023-05-17T17:26:16Z) - Context-Aware Document Simplification [3.2880869992413237]
単純化プロセス自体で文書コンテキストを使用するシステムについて検討する。
我々は,計画指導に頼らずとも,文書の簡略化作業における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-10T16:06:36Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。