論文の概要: Factorising Meaning and Form for Intent-Preserving Paraphrasing
- arxiv url: http://arxiv.org/abs/2105.15053v1
- Date: Mon, 31 May 2021 15:37:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 21:18:26.498453
- Title: Factorising Meaning and Form for Intent-Preserving Paraphrasing
- Title(参考訳): 語句保存のための因子化の意味と形態
- Authors: Tom Hosking, Mirella Lapata
- Abstract要約: 本稿では,本来の意図を保ちつつ,異なる表面形状を用いる英語質問のパラフレーズを生成する手法を提案する。
我々のモデルは、訓練対象の慎重な選択と原則化された情報のボトルネックを組み合わせる。
従来の手法に比べて意味的保存と構文的ノベルティのトレードオフが良好であるパラフレーズを生成することができる。
- 参考スコア(独自算出の注目度): 59.13322531639124
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method for generating paraphrases of English questions that
retain the original intent but use a different surface form. Our model combines
a careful choice of training objective with a principled information
bottleneck, to induce a latent encoding space that disentangles meaning and
form. We train an encoder-decoder model to reconstruct a question from a
paraphrase with the same meaning and an exemplar with the same surface form,
leading to separated encoding spaces. We use a Vector-Quantized Variational
Autoencoder to represent the surface form as a set of discrete latent
variables, allowing us to use a classifier to select a different surface form
at test time. Crucially, our method does not require access to an external
source of target exemplars. Extensive experiments and a human evaluation show
that we are able to generate paraphrases with a better tradeoff between
semantic preservation and syntactic novelty compared to previous methods.
- Abstract(参考訳): 本稿では,本来の意図を保ちつつ,異なる表面形状を用いる英語質問のパラフレーズを生成する手法を提案する。
本モデルでは,学習対象の注意深い選択と情報ボトルネックを組み合わせ,意味や形を歪ませる潜在符号化空間を誘導する。
エンコーダデコーダモデルを用いて、同じ意味のパラフレーズと同じ表面形状の例から質問を再構成し、分離された符号化空間を生成する。
ベクトル量子化された変分オートエンコーダを用いて、曲面形式を離散的潜在変数の集合として表現し、テスト時に異なる曲面形式を選択するために分類器を使うことができる。
重要な点として,本手法は,対象者の外部ソースへのアクセスを必要としない。
広範な実験と人的評価により,従来の手法と比較して,意味保存と構文的新しさとのトレードオフが良好であるパラフレーズを生成できることが示された。
関連論文リスト
- Investigating semantic subspaces of Transformer sentence embeddings
through linear structural probing [2.5002227227256864]
本研究では,文レベル表現の研究手法である意味構造探索を用いた実験を行う。
本手法は,2つのタスクの文脈において,異なる言語モデル(エンコーダのみ,デコーダのみ,エンコーダのみ,エンコーダ-デコーダ)と異なる大きさの言語モデルに適用する。
モデルファミリは、その性能と層動力学において大きく異なるが、結果は大半がモデルサイズの不変量である。
論文 参考訳(メタデータ) (2023-10-18T12:32:07Z) - A Sparsity-promoting Dictionary Model for Variational Autoencoders [16.61511959679188]
深層生成モデルにおける潜伏空間の構造化は、より表現力のあるモデルと解釈可能な表現を得るために重要である。
本稿では,空間の空間構造をスパーシティ・プロモーティング・辞書・モデルを用いて簡易かつ効果的に構築する手法を提案する。
論文 参考訳(メタデータ) (2022-03-29T17:13:11Z) - Hierarchical Sketch Induction for Paraphrase Generation [79.87892048285819]
本稿では、高密度符号化の分解を学習するHRQ-VAE(Hierarchical Refinement Quantized Variational Autoencoders)を紹介する。
HRQ-VAEを用いて、入力文の構文形式を階層化の経路としてエンコードすることで、テスト時の構文スケッチをより容易に予測できる。
論文 参考訳(メタデータ) (2022-03-07T15:28:36Z) - Sentence Bottleneck Autoencoders from Transformer Language Models [53.350633961266375]
我々は、事前訓練されたフリーズトランスフォーマー言語モデルから文レベルのオートエンコーダを構築する。
我々は、文ボトルネックと1層修飾トランスフォーマーデコーダのみを訓練しながら、マスク付き言語モデリングの目的を生成的・認知的言語として適応する。
本研究では,テキスト類似性タスク,スタイル転送,単一文分類タスクにおける事前学習されたトランスフォーマーからの表現をGLUEベンチマークで抽出する手法よりも,大規模な事前学習モデルよりも少ないパラメータを用いて,より高品質な文表現を実現することを示す。
論文 参考訳(メタデータ) (2021-08-31T19:39:55Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Neural Syntactic Preordering for Controlled Paraphrase Generation [57.5316011554622]
私たちの研究は、構文変換を使用して、ソース文をソフトに"リオーダー"し、神経パラフレージングモデルをガイドします。
まず、入力文が与えられた場合、エンコーダ・デコーダモデルを用いて、実行可能な構文再構成のセットを導出する。
次に、提案した各再構成を用いて位置埋め込みのシーケンスを生成し、最終的なエンコーダ-デコーダパラフレーズモデルが特定の順序でソース語に従属することを奨励する。
論文 参考訳(メタデータ) (2020-05-05T09:02:25Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。