論文の概要: Don't Change Me! User-Controllable Selective Paraphrase Generation
- arxiv url: http://arxiv.org/abs/2008.09290v2
- Date: Mon, 25 Jan 2021 20:09:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 21:38:15.141838
- Title: Don't Change Me! User-Controllable Selective Paraphrase Generation
- Title(参考訳): 変えないで!
ユーザ制御可能な選択パラフレーズ生成
- Authors: Mohan Zhang, Luchen Tan, Zhengkai Tu, Zihang Fu, Kun Xiong, Ming Li,
Jimmy Lin
- Abstract要約: パラフレーズ生成では、ソース文は変更すべきでないフレーズを含むことが多い。
私たちのソリューションは、任意のテキストセグメントに配置できる明示的なタグをユーザに提供することです。
この研究の貢献は、遠隔監視を用いた新しいデータ生成技術である。
- 参考スコア(独自算出の注目度): 45.0436584774495
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the paraphrase generation task, source sentences often contain phrases
that should not be altered. Which phrases, however, can be context dependent
and can vary by application. Our solution to this challenge is to provide the
user with explicit tags that can be placed around any arbitrary segment of text
to mean "don't change me!" when generating a paraphrase; the model learns to
explicitly copy these phrases to the output. The contribution of this work is a
novel data generation technique using distant supervision that allows us to
start with a pretrained sequence-to-sequence model and fine-tune a paraphrase
generator that exhibits this behavior, allowing user-controllable paraphrase
generation. Additionally, we modify the loss during fine-tuning to explicitly
encourage diversity in model output. Our technique is language agnostic, and we
report experiments in English and Chinese.
- Abstract(参考訳): パラフレーズ生成タスクでは、ソース文は変更すべきでないフレーズを含むことが多い。
しかし、どのフレーズは文脈に依存し、アプリケーションによって異なる可能性がある。
この課題に対する私たちの解決策は、パラフレーズを生成するときに、任意のテキストのセグメントの周りに配置できる明示的なタグをユーザに提供し、これらのフレーズを出力に明示的にコピーすることを学習することです。
本研究の貢献は、事前訓練されたシーケンス・ツー・シーケンスモデルから開始し、この振る舞いを示すパラフレーズ生成を微調整し、ユーザ制御可能なパラフレーズ生成を可能にする、遠隔監視を用いた新しいデータ生成技術である。
さらに、モデル出力の多様性を明確に促進するために、微調整時の損失を修正する。
私たちの技術は言語に依存せず、英語と中国語の実験を報告します。
関連論文リスト
- Paraphrase Types for Generation and Detection [7.800428507692341]
これらのタスクをパラフレーズ型生成とパラフレーズ型検出と呼ぶ。
以上の結果から,従来の手法は二項分類のシナリオではうまく機能するが,微粒なパラフレーズ型の含みは大きな課題となることが示唆された。
我々は、パラフレーズ型が将来、パラフレーズモデルの開発とタスクの解決のための新しいパラダイムを解き放つことができると考えている。
論文 参考訳(メタデータ) (2023-10-23T12:32:41Z) - A Plug-and-Play Method for Controlled Text Generation [38.283313068622085]
制御言語生成のためのプラグイン・アンド・プレイ復号法を提案する。
このアプローチの単純さにもかかわらず、実際に驚くほどうまく機能しているのが分かります。
論文 参考訳(メタデータ) (2021-09-20T17:27:03Z) - Towards Document-Level Paraphrase Generation with Sentence Rewriting and
Reordering [88.08581016329398]
文書レベルのパラフレーズ生成のためのCoRPG(Coherence Relation Guided Paraphrase Generation)を提案する。
グラフGRUを用いて、コヒーレンス関係グラフを符号化し、各文のコヒーレンス対応表現を得る。
我々のモデルは、より多様性とセマンティックな保存を伴う文書パラフレーズを生成することができる。
論文 参考訳(メタデータ) (2021-09-15T05:53:40Z) - From Solving a Problem Boldly to Cutting the Gordian Knot: Idiomatic
Text Generation [14.360808219541752]
テキスト生成のための新しいアプリケーション、慣用文生成について研究する。
与えられたリテラル文に対して適切なイディオムを求める,このタスクに対する新しいアプローチを提案する。
得られたイディオムと残りの文を組み合わせるために,ニューラルモデルを用いて慣用文を生成する。
論文 参考訳(メタデータ) (2021-04-13T22:57:25Z) - Generating Adversarial Examples in Chinese Texts Using Sentence-Pieces [60.58900627906269]
文片を用いた代用ジェネレータとして,中国語の逆例を作成できる事前学習型言語モデルを提案する。
生成した敵の例の置換は文字や単語ではなく「テキスト」であり、中国の読者にとって自然である。
論文 参考訳(メタデータ) (2020-12-29T14:28:07Z) - Exemplar-Controllable Paraphrasing and Translation using Bitext [57.92051459102902]
私たちは、バイリンガルテキスト(bitext)からのみ学ぶことができるように、以前の作業からモデルを適用する。
提案した1つのモデルでは、両言語で制御されたパラフレーズ生成と、両言語で制御された機械翻訳の4つのタスクを実行することができる。
論文 参考訳(メタデータ) (2020-10-12T17:02:50Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Metaphoric Paraphrase Generation [58.592750281138265]
クラウドソーシングを用いてその結果を評価し,メタファー的パラフレーズを評価するための自動指標を開発する。
語彙置換ベースラインは正確なパラフレーズを生成できるが、比喩的でないことが多い。
メタファーマスキングモデルでは,メタファー文の生成に優れ,流布やパラフレーズの品質に関してはほぼ同等に機能する。
論文 参考訳(メタデータ) (2020-02-28T16:30:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。