論文の概要: Progressive Document-level Text Simplification via Large Language Models
- arxiv url: http://arxiv.org/abs/2501.03857v1
- Date: Tue, 07 Jan 2025 15:14:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:49:48.799256
- Title: Progressive Document-level Text Simplification via Large Language Models
- Title(参考訳): 大規模言語モデルによるプログレッシブ文書レベルテキストの簡易化
- Authors: Dengzhao Fang, Jipeng Qiang, Yi Zhu, Yunhao Yuan, Wei Li, Yan Liu,
- Abstract要約: 長い文書レベルの単純化(DS)はいまだに未調査である。
本稿では,タスクを階層的に分解してプログレッシブ単純化手法(ProgDS)を提案する。
- 参考スコア(独自算出の注目度): 19.57555397986868
- License:
- Abstract: Research on text simplification has primarily focused on lexical and sentence-level changes. Long document-level simplification (DS) is still relatively unexplored. Large Language Models (LLMs), like ChatGPT, have excelled in many natural language processing tasks. However, their performance on DS tasks is unsatisfactory, as they often treat DS as merely document summarization. For the DS task, the generated long sequences not only must maintain consistency with the original document throughout, but complete moderate simplification operations encompassing discourses, sentences, and word-level simplifications. Human editors employ a hierarchical complexity simplification strategy to simplify documents. This study delves into simulating this strategy through the utilization of a multi-stage collaboration using LLMs. We propose a progressive simplification method (ProgDS) by hierarchically decomposing the task, including the discourse-level, topic-level, and lexical-level simplification. Experimental results demonstrate that ProgDS significantly outperforms existing smaller models or direct prompting with LLMs, advancing the state-of-the-art in the document simplification task.
- Abstract(参考訳): テキストの単純化に関する研究は、主に語彙や文レベルの変化に焦点を当てている。
長い文書レベルの単純化(DS)はいまだに未調査である。
ChatGPTのような大規模言語モデル(LLM)は多くの自然言語処理タスクに優れています。
しかし、DSタスクにおけるそれらのパフォーマンスは満足のいくものではなく、DSを単に文書要約として扱うことが多い。
DSタスクでは、生成された長いシーケンスは、元のドキュメント全体との整合性を維持するだけでなく、談話、文、単語レベルの単純化を含む完全な中等度な単純化操作も必要である。
人間の編集者は文書を単純化するために階層的な複雑さの単純化戦略を採用する。
本研究は,LLMを用いた多段階コラボレーションの利用を通じて,この戦略をシミュレートすることを目的としている。
本稿では,対話レベル,トピックレベル,語彙レベルといったタスクを階層的に分解し,プログレッシブな単純化手法(ProgDS)を提案する。
実験の結果, ProgDS は既存のより小さなモデルよりも優れており, LLM による直接的プロンプトも優れており,文書の単純化作業における最先端化が進んでいることがわかった。
関連論文リスト
- Redefining Simplicity: Benchmarking Large Language Models from Lexical to Document Simplification [21.727596753351072]
テキスト単純化(英: Text simplification, TS)とは、テキストの複雑さを減らし、本来の意味とキー情報を保持する過程である。
既存の研究は、大きな言語モデル(LLM)が、文の単純化に関する非LLMベースの手法よりも優れていることを示しているだけである。
論文 参考訳(メタデータ) (2025-02-12T10:38:22Z) - Enhancing LLM Character-Level Manipulation via Divide and Conquer [108.6908427615402]
大規模言語モデル(LLM)は、幅広い自然言語処理(NLP)タスクにまたがる強力な一般化機能を示している。
彼らは文字レベルの文字列操作において顕著な弱点を示し、文字削除、挿入、置換といった基本的な操作に苦労した。
本稿では,トークンレベルの処理と文字レベルの操作のギャップを埋める新しい手法であるDivide and Conquerによる文字レベル操作を提案する。
論文 参考訳(メタデータ) (2025-02-12T07:37:39Z) - Simple is not Enough: Document-level Text Simplification using Readability and Coherence [20.613410797137036]
我々は,コヒーレンスなどの簡易性,可読性,談話性を考慮した簡易化モデルであるSimDocシステムを提案する。
私たちは、シンプルさ、可読性、一貫性をすべて考慮し、トレーニング中に複数の目標を含みます。
本稿では、文書レベルのTSコーパスを用いて、ゼロショット、少数ショット、微調整設定で提案したモデルを評価する。
論文 参考訳(メタデータ) (2024-12-24T19:05:21Z) - Large Language Models are Pattern Matchers: Editing Semi-Structured and Structured Documents with ChatGPT [0.0]
本稿では,Large Language Models (LLM) を最小限の労力で構造化文書や半構造化文書の編集に適用できるかどうかを検討する。
ChatGPTは、注釈付きドキュメントの構造を認識し、処理する強力な能力を示している。
論文 参考訳(メタデータ) (2024-09-12T03:41:39Z) - ADaPT: As-Needed Decomposition and Planning with Language Models [131.063805299796]
As-Needed Decomposition and Planning for Complex Tasks (ADaPT)について紹介する。
ADaPTは、Large Language Modelsがそれらを実行できない場合、複雑なサブタスクを明示的に計画し、分解する。
以上の結果から,ADaPTは強いベースラインを確立した。
論文 参考訳(メタデータ) (2023-11-08T17:59:15Z) - SeqXGPT: Sentence-Level AI-Generated Text Detection [62.3792779440284]
大規模言語モデル(LLM)を用いた文書の合成による文レベル検出の課題について紹介する。
次に,文レベルのAIGT検出機能として,ホワイトボックスLEMのログ確率リストを利用した textbfSequence textbfX (Check) textbfGPT を提案する。
論文 参考訳(メタデータ) (2023-10-13T07:18:53Z) - PEARL: Prompting Large Language Models to Plan and Execute Actions Over
Long Documents [78.27865456183397]
長い文書に対する推論を改善するためのフレームワークであるPEARLを提案する。
PEARLの各ステージは、最小限の人間の入力でゼロショットまたは少数ショットのプロンプトによって実装される。
PEARLをQuALITYデータセットの挑戦的なサブセットで評価し、長い物語テキストに対して複雑な推論を必要とする質問を含む。
論文 参考訳(メタデータ) (2023-05-23T23:06:04Z) - Context-Aware Document Simplification [3.2880869992413237]
単純化プロセス自体で文書コンテキストを使用するシステムについて検討する。
我々は,計画指導に頼らずとも,文書の簡略化作業における最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-05-10T16:06:36Z) - Sentence Simplification via Large Language Models [15.07021692249856]
文の単純化は、複雑な文を本来の意味を保ちながら、より単純な文に言い換えることを目的としている。
大規模言語モデル(LLM)は、様々な自然言語処理タスクを実行する能力を示した。
論文 参考訳(メタデータ) (2023-02-23T12:11:58Z) - Decomposed Prompting: A Modular Approach for Solving Complex Tasks [55.42850359286304]
本稿では,より単純なサブタスクに分解することで,複雑なタスクを解くための分解プロンプトを提案する。
このモジュール構造は、各プロンプトを特定のサブタスクに最適化することを可能にする。
Decomposed Promptingの柔軟性とモジュラリティは、数発のプロンプトで先行作業より優れていることを示す。
論文 参考訳(メタデータ) (2022-10-05T17:28:20Z) - Document-Level Text Simplification: Dataset, Criteria and Baseline [75.58761130635824]
文書レベルのテキスト単純化の新しいタスクを定義し,検討する。
Wikipediaダンプに基づいて、我々はまずD-Wikipediaという大規模なデータセットを構築した。
本稿では,文書レベルの単純化作業に適したD-SARIと呼ばれる新しい自動評価指標を提案する。
論文 参考訳(メタデータ) (2021-10-11T08:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。