論文の概要: SASS: Data and Methods for Subject Aware Sentence Simplification
- arxiv url: http://arxiv.org/abs/2303.14589v1
- Date: Sun, 26 Mar 2023 00:02:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 18:46:15.400053
- Title: SASS: Data and Methods for Subject Aware Sentence Simplification
- Title(参考訳): SASS:主題認識文の簡略化のためのデータと方法
- Authors: Brad Windsor, Luke Martin, Anand Tyagi
- Abstract要約: 本稿では,主観認識文の単純化を行う学習モデルを対象としたデータセットを提供する。
また、抽象的な要約に使われるモデルアーキテクチャにインスパイアされたデータセット上でモデルをテストします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sentence simplification tends to focus on the generic simplification of
sentences by making them more readable and easier to understand. This paper
provides a dataset aimed at training models that perform subject aware sentence
simplifications rather than simplifying sentences as a whole. We also test
models on that dataset which are inspired by model architecture used in
abstractive summarization. We hand generated portions of the data and augment
the dataset by further manipulating those hand written simplifications. Our
results show that data-augmentation, data-masking, and model architecture
choices used in summarization provide a solid baseline for comparison on
subject aware simplification.
- Abstract(参考訳): 文の単純化は、文章をより読みやすく理解しやすくすることで、文の汎用的な単純化に焦点を当てる傾向がある。
本稿では,文全体を単純化するのではなく,主観的認識文の単純化を行うモデルを訓練するためのデータセットを提供する。
抽象的な要約に使われるモデルアーキテクチャにインスパイアされたデータセットのモデルもテストします。
我々は、生成したデータの一部を手渡し、それらの手書きの単純化をさらに操作することでデータセットを増強する。
以上の結果から,データ拡張,データマスキング,モデルアーキテクチャの選択が,主観的認識の単純化の比較に有効なベースラインであることが示唆された。
関連論文リスト
- Exploiting Summarization Data to Help Text Simplification [50.0624778757462]
テキスト要約とテキスト単純化の類似性を解析し,要約データを利用して単純化を行った。
我々はこれらのペアをSum4Simp (S4S) と命名し,S4Sが高品質であることを示す人間評価を行った。
論文 参考訳(メタデータ) (2023-02-14T15:32:04Z) - Document-Level Text Simplification: Dataset, Criteria and Baseline [75.58761130635824]
文書レベルのテキスト単純化の新しいタスクを定義し,検討する。
Wikipediaダンプに基づいて、我々はまずD-Wikipediaという大規模なデータセットを構築した。
本稿では,文書レベルの単純化作業に適したD-SARIと呼ばれる新しい自動評価指標を提案する。
論文 参考訳(メタデータ) (2021-10-11T08:15:31Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Controllable Text Simplification with Explicit Paraphrasing [88.02804405275785]
テキストの単純化は、語彙パラフレーズ、削除、分割など、いくつかの書き換え変換を通じて文の可読性を向上させる。
現在の単純化システムは、主にシーケンス・ツー・シーケンスのモデルであり、これらすべての操作を同時に実行するためにエンドツーエンドで訓練されている。
そこで我々は,言語的に動機づけられた規則を用いて分割と削除を行い,それらをニューラルパラフレーズモデルと組み合わせて様々な書き直しスタイルを創出するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2020-10-21T13:44:40Z) - Elaborative Simplification: Content Addition and Explanation Generation
in Text Simplification [33.08519864889526]
テキスト単純化におけるコンテンツ追加に関する最初のデータ駆動型研究について述べる。
我々は、文脈的特異性のレンズを通して、エンティティ、アイデア、概念がどのように精巧化されているかを分析する。
本研究は, 作業の複雑さを概説し, 今後の課題について多くの興味深い方向性を示唆するものである。
論文 参考訳(メタデータ) (2020-10-20T05:06:23Z) - ASSET: A Dataset for Tuning and Evaluation of Sentence Simplification
Models with Multiple Rewriting Transformations [97.27005783856285]
本稿では,英語で文の単純化を評価するための新しいデータセットであるASSETを紹介する。
ASSETの単純化は、タスクの他の標準評価データセットと比較して、単純さの特徴を捉えるのに優れていることを示す。
論文 参考訳(メタデータ) (2020-05-01T16:44:54Z) - MUSS: Multilingual Unsupervised Sentence Simplification by Mining
Paraphrases [20.84836431084352]
ラベル付き単純化データを必要としない多言語無教師文簡略化システムであるMUSSを紹介する。
MUSSは、適切な単純化データではなく、文レベルのパラフレーズデータを使用して強力なモデルを訓練する、文単純化の新しいアプローチを使用している。
我々は、英語、フランス語、スペイン語の単純化ベンチマークに対する我々のアプローチを評価し、以前の最高の教師付き結果と密に一致または比較した。
論文 参考訳(メタデータ) (2020-05-01T12:54:30Z) - Extractive Summarization as Text Matching [123.09816729675838]
本稿では,ニューラル抽出要約システムの構築方法に関するパラダイムシフトを作成する。
抽出した要約タスクを意味テキストマッチング問題として定式化する。
我々はCNN/DailyMailの最先端抽出結果を新しいレベル(ROUGE-1の44.41)に推し進めた。
論文 参考訳(メタデータ) (2020-04-19T08:27:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。