論文の概要: Politeness Transfer: A Tag and Generate Approach
- arxiv url: http://arxiv.org/abs/2004.14257v2
- Date: Fri, 1 May 2020 22:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 13:52:35.426311
- Title: Politeness Transfer: A Tag and Generate Approach
- Title(参考訳): 丁寧さの伝達:タグと生成アプローチ
- Authors: Aman Madaan, Amrith Setlur, Tanmay Parekh, Barnabas Poczos, Graham
Neubig, Yiming Yang, Ruslan Salakhutdinov, Alan W Black, Shrimai Prabhumoye
- Abstract要約: 本稿では, 丁寧性伝達の新たな課題について紹介する。
意味を保ちながら、非政治的な文を丁寧な文に変換することを含む。
我々はタグを設計し、スタイル属性を識別するパイプラインを生成し、その後、ターゲットスタイルで文を生成する。
- 参考スコア(独自算出の注目度): 167.9924201435888
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This paper introduces a new task of politeness transfer which involves
converting non-polite sentences to polite sentences while preserving the
meaning. We also provide a dataset of more than 1.39 instances automatically
labeled for politeness to encourage benchmark evaluations on this new task. We
design a tag and generate pipeline that identifies stylistic attributes and
subsequently generates a sentence in the target style while preserving most of
the source content. For politeness as well as five other transfer tasks, our
model outperforms the state-of-the-art methods on automatic metrics for content
preservation, with a comparable or better performance on style transfer
accuracy. Additionally, our model surpasses existing methods on human
evaluations for grammaticality, meaning preservation and transfer accuracy
across all the six style transfer tasks. The data and code is located at
https://github.com/tag-and-generate.
- Abstract(参考訳): 本稿では,意味を保ちながら,非ポリト文を丁寧な文に変換する新しい丁寧さ伝達課題を提案する。
この新しいタスクのベンチマーク評価を促進するために、礼儀正しくラベル付けされた1.39以上のインスタンスのデータセットも提供しています。
我々はタグを設計し、スタイル属性を識別するパイプラインを生成し、その後、ほとんどのソースコンテンツを保存しながら、ターゲットスタイルで文を生成する。
丁寧さと他の5つの転送タスクに対して、我々のモデルは、コンテンツ保存のための自動メトリクスにおける最先端の手法よりも優れており、スタイル転送精度に匹敵するあるいは優れた性能がある。
さらに,従来の文法性評価手法を上回っており,6つのスタイル転送タスクの保存・転送精度が向上している。
データとコードはhttps://github.com/tag-and-generateにある。
関連論文リスト
- Don't lose the message while paraphrasing: A study on content preserving
style transfer [61.38460184163704]
スタイル伝達研究の現実的な応用には,コンテンツ保存が不可欠である。
形式性伝達領域の例において、様々なスタイル転送モデルを比較する。
我々は,スタイル伝達のための最先端技術について,精密な比較研究を行っている。
論文 参考訳(メタデータ) (2023-08-17T15:41:08Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Few-shot Controllable Style Transfer for Low-Resource Settings: A Study
in Indian Languages [13.980482277351523]
スタイル転送は、その内容を保持しながら入力文をターゲットスタイルに書き換えるタスクである。
パラフレーズ間のスタイリスティックな差異をモデル化した新しい手法により,数ショットスタイルのトランスファーの最先端を推し進める。
本モデルでは,5言語にまたがる形式性伝達およびコード混合付加における性能と出力の多様性を2~3倍に向上する。
論文 参考訳(メタデータ) (2021-10-14T14:16:39Z) - Teach me how to Label: Labeling Functions from Natural Language with
Text-to-text Transformers [0.5330240017302619]
本稿では,自然言語記述をPythonラベリング関数に変換する作業に焦点をあてる。
我々は、事前訓練されたテキスト・トゥ・テキスト・トランスフォーマを用いた意味解析の新しいアプローチに従う。
我々のアプローチは、自然言語でラベルを付ける方法を教えるモデルへの一歩と見なすことができる。
論文 参考訳(メタデータ) (2021-01-18T16:04:15Z) - Conditioned Text Generation with Transfer for Closed-Domain Dialogue
Systems [65.48663492703557]
条件付き変分オートエンコーダを用いて,意図特化文の生成を最適に学習し,制御する方法を示す。
クエリ転送と呼ばれる新しいプロトコルを導入し、大規模で遅延のないデータセットを活用できるようにします。
論文 参考訳(メタデータ) (2020-11-03T14:06:10Z) - Reformulating Unsupervised Style Transfer as Paraphrase Generation [48.83148014000888]
パラフレーズ生成問題として教師なしスタイル転送を再構成する。
本稿では,自動生成したパラフレーズデータに基づいて,微調整事前学習言語モデルに基づく簡単な手法を提案する。
また、11種類の異なるスタイルで15万文の大規模なデータセットを収集することで、より現実的なスタイルの転送設定に転換する。
論文 参考訳(メタデータ) (2020-10-12T13:31:01Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。