論文の概要: Text Generation with Text-Editing Models
- arxiv url: http://arxiv.org/abs/2206.07043v1
- Date: Tue, 14 Jun 2022 17:58:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 14:38:09.714112
- Title: Text Generation with Text-Editing Models
- Title(参考訳): テキスト編集モデルを用いたテキスト生成
- Authors: Eric Malmi, Yue Dong, Jonathan Mallinson, Aleksandr Chuklin, Jakub
Adamek, Daniil Mirylenka, Felix Stahlberg, Sebastian Krause, Shankar Kumar,
Aliaksei Severyn
- Abstract要約: このチュートリアルは、テキスト編集モデルと最先端のアプローチの概要を提供する。
生産化に関わる課題と、これらのモデルが幻覚や偏見を軽減するためにどのように使用できるかについて議論する。
- 参考スコア(独自算出の注目度): 78.03750739936956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text-editing models have recently become a prominent alternative to seq2seq
models for monolingual text-generation tasks such as grammatical error
correction, simplification, and style transfer. These tasks share a common
trait - they exhibit a large amount of textual overlap between the source and
target texts. Text-editing models take advantage of this observation and learn
to generate the output by predicting edit operations applied to the source
sequence. In contrast, seq2seq models generate outputs word-by-word from
scratch thus making them slow at inference time. Text-editing models provide
several benefits over seq2seq models including faster inference speed, higher
sample efficiency, and better control and interpretability of the outputs. This
tutorial provides a comprehensive overview of text-editing models and current
state-of-the-art approaches, and analyzes their pros and cons. We discuss
challenges related to productionization and how these models can be used to
mitigate hallucination and bias, both pressing challenges in the field of text
generation.
- Abstract(参考訳): テキスト編集モデルは、最近、文法的誤り訂正、単純化、スタイル転送などの単言語テキスト生成タスクに対するSeq2seqモデルの顕著な代替品となっている。
これらのタスクは共通の特徴を共有し、ソースとターゲットテキストの間に大量のテキスト重なりを示す。
テキスト編集モデルは、この観察を利用して、ソースシーケンスに適用される編集操作を予測して出力を生成する。
対照的に、seq2seqモデルは、単語単位の出力をスクラッチから生成するので、推論時間が遅くなる。
テキスト編集モデルは、推論速度の高速化、サンプル効率の向上、出力の制御と解釈性の向上など、seq2seqモデルよりもいくつかの利点を提供する。
このチュートリアルは、テキスト編集モデルと最先端のアプローチの概要を提供し、それらの長所と短所を分析する。
本稿では,生産化に関わる課題と,これらのモデルを用いて幻覚や偏見を緩和し,テキスト生成の分野における課題を推し進める方法について論じる。
関連論文リスト
- Contextualized Diffusion Models for Text-Guided Image and Video Generation [67.69171154637172]
条件拡散モデルは高忠実度テキスト誘導視覚生成および編集において優れた性能を示した。
本研究では,テキスト条件と視覚的サンプル間の相互作用とアライメントを包含するクロスモーダルコンテキストを組み込むことにより,コンテキスト拡散モデル(ContextDiff)を提案する。
理論的導出を伴うDDPMとDDIMの両方にモデルを一般化し、テキスト・ツー・イメージ生成とテキスト・ツー・ビデオ編集という2つの課題を伴う評価において、モデルの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-26T15:01:16Z) - PLANNER: Generating Diversified Paragraph via Latent Language Diffusion Model [37.2192243883707]
本稿では,潜在意味の拡散と自己回帰生成を組み合わせ,流動的なテキストを生成するモデルであるPLANNERを提案する。
意味生成, テキスト補完, 要約の結果は, 高品質な長文を生成する上での有効性を示す。
論文 参考訳(メタデータ) (2023-06-05T01:36:39Z) - SeqDiffuSeq: Text Diffusion with Encoder-Decoder Transformers [50.90457644954857]
本研究では,拡散モデルを用いてシーケンス・ツー・シーケンスのテキスト生成を行う。
シーケンス・ツー・シーケンス生成のためのテキスト拡散モデルであるSeqDiffuSeqを提案する。
実験結果は、テキストの品質と推論時間の観点から、シーケンス・ツー・シーケンス生成の優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-20T15:16:24Z) - eDiffi: Text-to-Image Diffusion Models with an Ensemble of Expert
Denoisers [87.52504764677226]
大規模拡散に基づく生成モデルは、テキスト条件の高解像度画像合成においてブレークスルーをもたらした。
異なる段階合成に特化したテキスト・画像拡散モデルのアンサンブルを訓練する。
eDiffiと呼ばれる拡散モデルのアンサンブルは、同じ推論コストを維持しながらテキストアライメントを改善する。
論文 参考訳(メタデータ) (2022-11-02T17:43:04Z) - DiffusER: Discrete Diffusion via Edit-based Reconstruction [88.62707047517914]
DiffusERは、拡散モデルに基づくテキストの編集ベースの生成モデルである。
機械翻訳、要約、スタイル転送にまたがるいくつかのタスクにおいて、自動回帰モデルと競合する可能性がある。
また、標準的な自己回帰モデルに適さないような、他の種類の世代も実行することができる。
論文 参考訳(メタデータ) (2022-10-30T16:55:23Z) - Text Revision by On-the-Fly Representation Optimization [76.11035270753757]
現在の最先端手法は、これらのタスクをシーケンスからシーケンスまでの学習問題として定式化している。
並列データを必要としないテキストリビジョンのための反復的なインプレース編集手法を提案する。
テキストの単純化に関する最先端の教師付き手法よりも、競争力があり、パフォーマンスも向上する。
論文 参考訳(メタデータ) (2022-04-15T07:38:08Z) - Data-to-Text Generation with Iterative Text Editing [3.42658286826597]
本稿では,反復的テキスト編集に基づく新しいデータ・テキスト生成手法を提案する。
まず、自明なテンプレートを用いてデータ項目をテキストに変換し、その後、文融合タスクのために訓練されたニューラルモデルにより結果のテキストを反復的に改善する。
モデルの出力は単純で、既製の事前訓練言語モデルで再帰的にフィルタリングされる。
論文 参考訳(メタデータ) (2020-11-03T13:32:38Z) - Felix: Flexible Text Editing Through Tagging and Insertion [21.55417495142206]
Felixはフレキシブルなテキスト編集方式で、双方向コンテキストによるデコードと自己教師型事前学習のアイデアから最大限の利益を得るように設計されている。
テキスト編集タスクを2つのサブタスクに分解し、入力トークンのサブセットと出力テキストの順番をタグ付けし、入力に存在しない出力に欠落したトークンを埋め込む。
論文 参考訳(メタデータ) (2020-03-24T07:01:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。