論文の概要: GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer
- arxiv url: http://arxiv.org/abs/2102.00769v1
- Date: Mon, 1 Feb 2021 11:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 17:04:34.591692
- Title: GTAE: Graph-Transformer based Auto-Encoders for Linguistic-Constrained
Text Style Transfer
- Title(参考訳): GTAE:言語制約付きテキストスタイル転送のためのグラフトランスフォーマーベースのオートエンコーダ
- Authors: Yukai Shi, Sen Zhang, Chenxing Zhou, Xiaodan Liang, Xiaojun Yang,
Liang Lin
- Abstract要約: 近年,非並列テキストスタイルの転送が研究の関心を集めている。
現在のアプローチでは、元の文の内容やロジックを保存できない。
文を言語グラフとしてモデル化し,グラフレベルで特徴抽出とスタイル転送を行う,グラフトランスフォーマーベースのAuto-GTAEを提案する。
- 参考スコア(独自算出の注目度): 119.70961704127157
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Non-parallel text style transfer has attracted increasing research interests
in recent years. Despite successes in transferring the style based on the
encoder-decoder framework, current approaches still lack the ability to
preserve the content and even logic of original sentences, mainly due to the
large unconstrained model space or too simplified assumptions on latent
embedding space. Since language itself is an intelligent product of humans with
certain grammars and has a limited rule-based model space by its nature,
relieving this problem requires reconciling the model capacity of deep neural
networks with the intrinsic model constraints from human linguistic rules. To
this end, we propose a method called Graph Transformer based Auto Encoder
(GTAE), which models a sentence as a linguistic graph and performs feature
extraction and style transfer at the graph level, to maximally retain the
content and the linguistic structure of original sentences. Quantitative
experiment results on three non-parallel text style transfer tasks show that
our model outperforms state-of-the-art methods in content preservation, while
achieving comparable performance on transfer accuracy and sentence naturalness.
- Abstract(参考訳): 非並列テキストスタイル転送は近年研究の関心を集めている。
エンコーダデコーダフレームワークに基づいてスタイルを転送することに成功したにもかかわらず、現在のアプローチは、主に大きな制約のないモデル空間または潜在的な埋め込みスペース上の単純すぎる仮定のために、元の文の内容とロジックを保存する能力がまだ欠けています。
言語自体が特定の文法を持つ人間のインテリジェントな産物であり、その性質によってルールベースのモデル空間が制限されているため、この問題を緩和するためには、深いニューラルネットワークのモデル容量を人間の言語規則から本質的なモデル制約と照合する必要がある。
そこで本稿では,グラフ変換器を用いたオートエンコーダ(GTAE)という手法を提案する。文を言語グラフとしてモデル化し,特徴抽出とスタイル転送をグラフレベルで行うことで,原文の内容と言語構造を最大に保持する。
3つの非並列テキストスタイルの転送タスクの定量的実験結果から,本モデルはコンテンツ保存における最先端の手法よりも優れており,転送精度と文自然性に匹敵する性能が得られた。
関連論文リスト
- A Transformer-based Approach for Arabic Offline Handwritten Text
Recognition [0.0]
オフラインのアラビア文字を認識できるアーキテクチャを2つ導入する。
私たちのアプローチは言語依存をモデル化することができ、注意機構のみに依存するので、より並列化可能で、より複雑ではありません。
アラビアKHATTデータセットの評価は,提案手法が現在の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-27T17:51:52Z) - Pre-Training a Graph Recurrent Network for Language Representation [34.4554387894105]
本稿では,言語モデルの事前学習のためのグラフリカレントネットワークについて考察し,各シーケンスのグラフ構造を局所的なトークンレベルの通信で構築する。
我々のモデルは、既存の注意に基づくモデルよりもコンテキスト化された特徴冗長性が少なく、より多様な出力を生成することができる。
論文 参考訳(メタデータ) (2022-09-08T14:12:15Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Exploring Contextual Word-level Style Relevance for Unsupervised Style
Transfer [60.07283363509065]
教師なしのスタイル転送は、元のコンテンツを保持しながら入力文のスタイルを変更することを目的としている。
本稿では,各出力語がターゲットスタイルに関連性があることを活かした,新たな注目シーケンス・ツー・シーケンスモデルを提案する。
実験結果から,提案手法は転送精度とコンテンツ保存の両面から,最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-05-05T10:24:28Z) - Contextual Text Style Transfer [73.66285813595616]
コンテキストテキストスタイル転送は、文をその周囲のコンテキストを考慮した所望のスタイルに変換することを目的としている。
本稿では,各入力文とその周辺コンテキストに対して2つの異なるエンコーダを使用するコンテキスト認識スタイル転送(CAST)モデルを提案する。
Enron-ContextとReddit-Contextという2つの新しいベンチマークが、フォーマル性と攻撃性スタイルの転送のために導入された。
論文 参考訳(メタデータ) (2020-04-30T23:01:12Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。