論文の概要: Latent Template Induction with Gumbel-CRFs
- arxiv url: http://arxiv.org/abs/2011.14244v1
- Date: Sun, 29 Nov 2020 01:00:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 14:37:08.542067
- Title: Latent Template Induction with Gumbel-CRFs
- Title(参考訳): gumbel-crfsによる潜伏テンプレート誘導
- Authors: Yao Fu, Chuanqi Tan, Bin Bi, Mosha Chen, Yansong Feng, Alexander M.
Rush
- Abstract要約: 文生成のための潜在テンプレートを推論するための構造化変分オートエンコーダについて検討する。
構造化推論ネットワークとして、トレーニング中に解釈可能なテンプレートを学習することを示す。
- 参考スコア(独自算出の注目度): 107.17408593510372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning to control the structure of sentences is a challenging problem in
text generation. Existing work either relies on simple deterministic approaches
or RL-based hard structures. We explore the use of structured variational
autoencoders to infer latent templates for sentence generation using a soft,
continuous relaxation in order to utilize reparameterization for training.
Specifically, we propose a Gumbel-CRF, a continuous relaxation of the CRF
sampling algorithm using a relaxed Forward-Filtering Backward-Sampling (FFBS)
approach. As a reparameterized gradient estimator, the Gumbel-CRF gives more
stable gradients than score-function based estimators. As a structured
inference network, we show that it learns interpretable templates during
training, which allows us to control the decoder during testing. We demonstrate
the effectiveness of our methods with experiments on data-to-text generation
and unsupervised paraphrase generation.
- Abstract(参考訳): 文の構造を制御することは、テキスト生成において難しい問題である。
既存の作業は単純な決定論的アプローチかRLベースのハード構造に依存している。
本研究では,再パラメータ化を訓練に活用するために,ゆるやかで連続的なリラクゼーションを用いた文生成における潜在テンプレート推定のための構造的変分オートエンコーダの利用について検討する。
具体的には, Gumbel-CRFを提案する。これは, 緩和されたフォワード・フィラリング・バック・サンプリング (FFBS) 手法を用いて, CRFサンプリングアルゴリズムの連続緩和である。
再パラメータ化勾配推定器として、Gumbel-CRFはスコア関数に基づく推定器よりも安定な勾配を与える。
構造化推論ネットワークとして、トレーニング中に解釈可能なテンプレートを学習し、テスト中にデコーダを制御することができることを示す。
我々は,データ・テキスト生成と教師なしパラフレーズ生成における実験による手法の有効性を実証する。
関連論文リスト
- Reconsidering Degeneration of Token Embeddings with Definitions for Encoder-based Pre-trained Language Models [20.107727903240065]
本研究では,エンコーダに基づく言語モデルのための等方的および意味論的トークン埋め込みを再構築するために,DefindEMBを提案する。
本実験は,Wiktionaryの定義を応用し,そのような埋め込みを再構築する効果を実証する。
論文 参考訳(メタデータ) (2024-08-02T15:00:05Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Sample as You Infer: Predictive Coding With Langevin Dynamics [11.515490109360012]
汎用的な深層生成モデルにおけるパラメータ学習のための新しいアルゴリズムを提案する。
提案手法は,標準変分自動エンコーダトレーニングから得られる性能と超越性を実現するために,標準PCアルゴリズムを改良する。
論文 参考訳(メタデータ) (2023-11-22T19:36:47Z) - Mitigating the Learning Bias towards Repetition by Self-Contrastive
Training for Open-Ended Generation [92.42032403795879]
GPT2のような事前訓練された言語モデル(LM)は、繰り返しテキストを生成する傾向にあることを示す。
トークンレベルの反復確率の過大評価は学習バイアスに起因している。
LMは文レベルの繰り返しループの原因となる非繰り返しトークンよりも長い範囲依存を用いて繰り返しトークンを予測する。
論文 参考訳(メタデータ) (2023-07-04T07:53:55Z) - Scalable Learning of Latent Language Structure With Logical Offline
Cycle Consistency [71.42261918225773]
概念的には、LOCCOは、トレーニング対象のセマンティクスを使用してラベルなしテキストのアノテーションを生成する、自己学習の一形態と見なすことができる。
追加ボーナスとして、LOCCOによって生成されたアノテーションは、神経テキスト生成モデルをトレーニングするために自明に再利用することができる。
論文 参考訳(メタデータ) (2023-05-31T16:47:20Z) - Noise-Robust Dense Retrieval via Contrastive Alignment Post Training [89.29256833403167]
Contrastive Alignment POst Training (CAPOT) は、指数再生を必要とせず、モデルロバスト性を改善する高効率な微調整法である。
CAPOTはドキュメントエンコーダを凍結することで堅牢な検索を可能にし、クエリエンコーダはノイズの多いクエリを修正されていないルートに整列させる。
MSMARCO、Natural Questions、Trivia QAパス検索のCAPOTノイズ変動を評価し、CAPOTがオーバーヘッドを伴わないデータ増大に類似した影響があることを発見した。
論文 参考訳(メタデータ) (2023-04-06T22:16:53Z) - A Distributed Optimisation Framework Combining Natural Gradient with
Hessian-Free for Discriminative Sequence Training [16.83036203524611]
本稿では、ニューラルネットワークトレーニングのための自然勾配およびヘッセンフリー(NGHF)最適化フレームワークを提案する。
これは、自然勾配(ng)法とヘッセンフリー(hf)や他の二次法からの局所曲率情報を組み合わせた線形共役勾配(cg)アルゴリズムに依存している。
さまざまな音響モデルタイプのマルチジャンル放送データセットで実験が報告されています。
論文 参考訳(メタデータ) (2021-03-12T22:18:34Z) - AdaS: Adaptive Scheduling of Stochastic Gradients [50.80697760166045]
我々は、textit "knowledge gain" と textit "mapping condition" の概念を導入し、Adaptive Scheduling (AdaS) と呼ばれる新しいアルゴリズムを提案する。
実験によると、AdaSは派生した指標を用いて、既存の適応学習手法よりも高速な収束と優れた一般化、そして(b)いつトレーニングを中止するかを決定するための検証セットへの依存の欠如を示す。
論文 参考訳(メタデータ) (2020-06-11T16:36:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。