論文の概要: Context-Aware Document Simplification
- arxiv url: http://arxiv.org/abs/2305.06274v1
- Date: Wed, 10 May 2023 16:06:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-11 12:13:02.279314
- Title: Context-Aware Document Simplification
- Title(参考訳): コンテキスト対応ドキュメンテーションの簡略化
- Authors: Liam Cripwell, Jo\"el Legrand, Claire Gardent
- Abstract要約: 単純化プロセス自体で文書コンテキストを使用するシステムについて検討する。
我々は,計画指導に頼らずとも,文書の簡略化作業における最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 3.2880869992413237
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To date, most work on text simplification has focused on sentence-level
inputs. Early attempts at document simplification merely applied these
approaches iteratively over the sentences of a document. However, this fails to
coherently preserve the discourse structure, leading to suboptimal output
quality. Recently, strategies from controllable simplification have been
leveraged to achieve state-of-the-art results on document simplification by
first generating a document-level plan (a sequence of sentence-level
simplification operations) and using this plan to guide sentence-level
simplification downstream. However, this is still limited in that the
simplification model has no direct access to the local inter-sentence document
context, likely having a negative impact on surface realisation. We explore
various systems that use document context within the simplification process
itself, either by iterating over larger text units or by extending the system
architecture to attend over a high-level representation of document context. In
doing so, we achieve state-of-the-art performance on the document
simplification task, even when not relying on plan-guidance. Further, we
investigate the performance and efficiency tradeoffs of system variants and
make suggestions of when each should be preferred.
- Abstract(参考訳): これまで、テキストの単純化に関するほとんどの作業は、文レベルの入力に重点を置いてきた。
文書化の初期の試みは、単に文書の文に対して反復的にこれらのアプローチを適用しただけである。
しかし、これは談話構造をコヒーレントに保存することができず、最適以下の出力品質をもたらす。
近年、文書レベルの計画(文レベルの簡略化操作のシーケンス)を最初に生成し、この計画を用いて文レベルの単純化を下流に導くことにより、文書簡略化に関する最先端の成果を達成するために、制御可能な単純化の戦略が活用されている。
しかし、簡略化モデルは局所的な文間文書コンテキストに直接アクセスできないため、表面実現に悪影響を及ぼす可能性がある。
我々は,より大きなテキスト単位を繰り返すか,あるいは文書コンテキストの高レベル表現に参加するためにシステムアーキテクチャを拡張することによって,簡易化プロセス内で文書コンテキストを使用する様々なシステムについて検討する。
そこで我々は,プランガイダンスに頼らずとも,文書の簡略化作業における最先端のパフォーマンスを実現する。
さらに,システム変種の性能と効率のトレードオフについて検討し,それぞれがいつ好まれるかを提案する。
関連論文リスト
- Progressive Document-level Text Simplification via Large Language Models [19.57555397986868]
長い文書レベルの単純化(DS)はいまだに未調査である。
本稿では,タスクを階層的に分解してプログレッシブ単純化手法(ProgDS)を提案する。
論文 参考訳(メタデータ) (2025-01-07T15:14:37Z) - Simple is not Enough: Document-level Text Simplification using Readability and Coherence [20.613410797137036]
我々は,コヒーレンスなどの簡易性,可読性,談話性を考慮した簡易化モデルであるSimDocシステムを提案する。
私たちは、シンプルさ、可読性、一貫性をすべて考慮し、トレーニング中に複数の目標を含みます。
本稿では、文書レベルのTSコーパスを用いて、ゼロショット、少数ショット、微調整設定で提案したモデルを評価する。
論文 参考訳(メタデータ) (2024-12-24T19:05:21Z) - Controlling Pre-trained Language Models for Grade-Specific Text
Simplification [22.154454849167077]
本研究では,異なる制御機構がテキスト単純化システムの妥当性と簡易性に与える影響について検討する。
本稿では,インスタンス単位のインスタンス単位で,特定のグレードレベルのテキストを簡略化するために必要な編集操作を簡易に予測する手法を提案する。
論文 参考訳(メタデータ) (2023-05-24T10:29:45Z) - Unsupervised Sentence Simplification via Dependency Parsing [4.337513096197002]
本稿では,単純だが教師なしの文簡略化システムを提案する。
構文解析と文の埋め込みを利用して言語学的に効果的な単純化を生成する。
我々は、テュルクコルプスの39.13 SARIにおいて、教師なしの最先端を定め、様々な品質指標の教師なしベースラインに対して競争的に行動する。
論文 参考訳(メタデータ) (2022-06-10T07:55:25Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Document-Level Text Simplification: Dataset, Criteria and Baseline [75.58761130635824]
文書レベルのテキスト単純化の新しいタスクを定義し,検討する。
Wikipediaダンプに基づいて、我々はまずD-Wikipediaという大規模なデータセットを構築した。
本稿では,文書レベルの単純化作業に適したD-SARIと呼ばれる新しい自動評価指標を提案する。
論文 参考訳(メタデータ) (2021-10-11T08:15:31Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - Multilevel Text Alignment with Cross-Document Attention [59.76351805607481]
既存のアライメントメソッドは、1つの事前定義されたレベルで動作します。
本稿では,文書を文書間注目要素で表現するための階層的アテンションエンコーダを予め確立した新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-10-03T02:52:28Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。