論文の概要: Keep it Simple: Unsupervised Simplification of Multi-Paragraph Text
- arxiv url: http://arxiv.org/abs/2107.03444v1
- Date: Wed, 7 Jul 2021 19:12:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-09 13:39:14.760166
- Title: Keep it Simple: Unsupervised Simplification of Multi-Paragraph Text
- Title(参考訳): シンプルに保つ:マルチパラグラフテキストの教師なし単純化
- Authors: Philippe Laban and Tobias Schnabel and Paul Bennett and Marti A.
Hearst
- Abstract要約: 教師なしテキストの単純化のための新しいアプローチである Keep it Simple (KiS) を提示する。
KiSは報酬を3つの特性 – 流用性,清潔さ,単純さ – でバランスをとることを学ぶ。
英語のニュースドメインでテストすると、KiSモデルは強い教師付きベースラインを4つ以上のSARIポイントで上回ります。
- 参考スコア(独自算出の注目度): 21.766371263582396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work presents Keep it Simple (KiS), a new approach to unsupervised text
simplification which learns to balance a reward across three properties:
fluency, salience and simplicity. We train the model with a novel algorithm to
optimize the reward (k-SCST), in which the model proposes several candidate
simplifications, computes each candidate's reward, and encourages candidates
that outperform the mean reward. Finally, we propose a realistic text
comprehension task as an evaluation method for text simplification. When tested
on the English news domain, the KiS model outperforms strong supervised
baselines by more than 4 SARI points, and can help people complete a
comprehension task an average of 18% faster while retaining accuracy, when
compared to the original text. Code available:
https://github.com/tingofurro/keep_it_simple
- Abstract(参考訳): この作業は、unsupervised text simplificationに対する新しいアプローチであるfind it simple (kis)であり、fluency、salience、simpleという3つのプロパティで報酬のバランスをとることを学ぶ。
そこで本モデルでは,報酬を最適化する新しいアルゴリズム(k-SCST)を訓練し,そのモデルが複数の候補の簡易化を提案し,各候補の報酬を計算し,平均報酬よりも優れた候補を奨励する。
最後に,テキスト単純化の評価手法として,現実的なテキスト理解タスクを提案する。
英語のニュースドメインでテストすると、KiSモデルは強い教師付きベースラインを4つ以上のSARIポイントで上回り、オリジナルのテキストと比較して精度を保ちながら理解タスクを平均18%高速化するのに役立つ。
コード提供: https://github.com/tingofurro/keep_it_simple
関連論文リスト
- Self-Consistent Decoding for More Factual Open Responses [28.184313177333642]
Sample & Selectは、DoLA、P-CRR、S-CRRのデコーダに対して、30%の相対的なマージンで事実性を向上する。
生成した要約の人間による検証を収集し,本手法の実際的優位性を確認する。
論文 参考訳(メタデータ) (2024-03-01T17:31:09Z) - Teaching the Pre-trained Model to Generate Simple Texts for Text
Simplification [59.625179404482594]
トレーニング前の段階では、ランダムなマスキングテキストが通常のテキストに分散しているため、モデルは単純なテキストを生成する能力を得ることができない。
簡単なテキストを生成するための事前学習モデルを学習するための,新たな事前学習戦略を提案する。
論文 参考訳(メタデータ) (2023-05-21T14:03:49Z) - Alleviating Over-smoothing for Unsupervised Sentence Representation [96.19497378628594]
本稿では,この問題を緩和するために,SSCL(Self-Contrastive Learning)というシンプルな手法を提案する。
提案手法は非常に単純で,様々な最先端モデルに拡張して,性能向上を図ることができる。
論文 参考訳(メタデータ) (2023-05-09T11:00:02Z) - Exploiting Summarization Data to Help Text Simplification [50.0624778757462]
テキスト要約とテキスト単純化の類似性を解析し,要約データを利用して単純化を行った。
我々はこれらのペアをSum4Simp (S4S) と命名し,S4Sが高品質であることを示す人間評価を行った。
論文 参考訳(メタデータ) (2023-02-14T15:32:04Z) - NapSS: Paragraph-level Medical Text Simplification via Narrative
Prompting and Sentence-matching Summarization [46.772517928718216]
そこで我々はNapSSと呼ばれる2段階戦略を提案する。
NapSSは、オリジナルの物語の流れが保存されていることを保証しながら、関連コンテンツを特定し、単純化する。
本モデルは,英語医療コーパスのSeq2seqベースラインよりも有意に優れている。
論文 参考訳(メタデータ) (2023-02-11T02:20:25Z) - Classifiers are Better Experts for Controllable Text Generation [63.17266060165098]
提案手法は, PPLにおける最近のPPLM, GeDi, DExpertsよりも有意に優れており, 生成したテキストの外部分類器に基づく感情の精度が高いことを示す。
同時に、実装やチューニングも簡単で、制限や要件も大幅に少なくなります。
論文 参考訳(メタデータ) (2022-05-15T12:58:35Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Deep Continuous Prompt for Contrastive Learning of Sentence Embeddings [8.70715711885114]
本稿では,言語モデル全体を凍結し,プレフィックスの深い連続的なプロンプトのみを最適化する新しい手法を提案する。
元の言語モデルの約0.1%のパラメータをチューニングするだけでなく、手作りのプロンプトを検索する面倒な計算を避ける。
提案したDCPCSEは最先端のSimCSEよりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-03-14T06:07:44Z) - Improving Sequence-to-Sequence Pre-training via Sequence Span Rewriting [54.03356526990088]
本稿では,Sequence Span Rewriting (SSR) を自己教師付きシーケンス・ツー・シーケンス(seq2seq)事前学習目的として提案する。
SSRは、モデルに不完全なスパンを書き直すように監督することで、より細かい学習信号をテキスト表現に提供します。
各種Seq2seqタスクのT5モデルによる実験により,SSRはSeq2seq事前学習を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2021-01-02T10:27:11Z) - Neural CRF Model for Sentence Alignment in Text Simplification [31.62648025127563]
我々は、通常使われている2つのテキスト単純化コーパス、Newsela、Wikipediaから、手動で注釈付き文整列データセットを作成する。
実験により, 提案手法はF1の5点以上の単言語文アライメントタスクにおいて, これまでの作業よりも優れていたことがわかった。
データセットに基づいてトレーニングされたTransformerベースのseq2seqモデルは、自動評価と人的評価の両方において、テキストの簡略化のための新しい最先端技術を確立する。
論文 参考訳(メタデータ) (2020-05-05T16:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。