論文の概要: Deep Latent Variable Models for Semi-supervised Paraphrase Generation
- arxiv url: http://arxiv.org/abs/2301.02275v1
- Date: Thu, 5 Jan 2023 19:35:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:25:02.183255
- Title: Deep Latent Variable Models for Semi-supervised Paraphrase Generation
- Title(参考訳): 半教師付きパラフレーズ生成のための潜時変動モデル
- Authors: Jialin Yu, Alexandra I. Cristea, Anoushka Harit, Zhongtian Sun,
Olanrewaju Tahir Aduragba, Lei Shi, Noura Al Moubayed
- Abstract要約: 変分シーケンス自動エンコード再構成(VSAR)と呼ばれる新しい教師なしモデルを提案する。
テキストペアからの情報を活用するために、双方向学習(DDL)と呼ばれる教師付きモデルを導入する。
実験により, このモデルを組み合わせることで, 完全データに基づく最先端の教師付きベースラインに対して, 競争性能が向上することが示唆された。
- 参考スコア(独自算出の注目度): 58.062003028768636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper explores deep latent variable models for semi-supervised
paraphrase generation, where the missing target pair is modelled as a latent
paraphrase sequence. We present a novel unsupervised model named variational
sequence auto-encoding reconstruction (VSAR), which performs latent sequence
inference given an observed text. To leverage information from text pairs, we
introduce a supervised model named dual directional learning (DDL). Combining
VSAR with DDL (DDL+VSAR) enables us to conduct semi-supervised learning;
however, the combined model suffers from a cold-start problem. To combat this
issue, we propose to deal with better weight initialisation, leading to a
two-stage training scheme named knowledge reinforced training. Our empirical
evaluations suggest that the combined model yields competitive performance
against the state-of-the-art supervised baselines on complete data.
Furthermore, in scenarios where only a fraction of the labelled pairs are
available, our combined model consistently outperforms the strong supervised
model baseline (DDL and Transformer) by a significant margin.
- Abstract(参考訳): 本稿では,半教師付きパラファーゼ生成のための深い潜在変数モデルについて検討し,対象ペアの欠落を潜在パラファーゼ配列としてモデル化する。
本稿では,観測されたテキストに対して潜在シーケンス推論を行う可変シーケンス自動エンコーディング再構成(vsar)という,新しい教師なしモデルを提案する。
テキストペアからの情報を活用するために、双方向学習(DDL)と呼ばれる教師付きモデルを導入する。
VSARとDDL+VSARを組み合わせることで、半教師付き学習が可能になるが、この組み合わせモデルはコールドスタート問題に悩まされる。
この問題に対処するために,我々は,より優れた重量初期化に対処することを提案し,知識強化訓練という2段階の訓練方式を導いた。
実験結果から,コンプリートデータにおける最先端の教師付きベースラインに対して,コンプリートモデルが競合性能をもたらすことが示唆された。
さらに、ラベル付きペアのごく一部しか利用できないシナリオでは、我々の組み合わせモデルは、強い教師付きモデルベースライン(DDLとTransformer)よりも大幅に優れています。
関連論文リスト
- Deep Companion Learning: Enhancing Generalization Through Historical Consistency [35.5237083057451]
本稿では,不整合モデル予測をペナライズすることによって一般化を促進するディープニューラルネットワーク(DNN)の新たなトレーニング手法を提案する。
我々は、新しい入力の予測を提供するために、以前のバージョンのモデルを用いて、ディープコンパニオンモデル(DCM)を訓練する。
このコンパニオンモデルは、データ内の有意義な潜在意味構造を解読し、ターゲットの監視を提供する。
論文 参考訳(メタデータ) (2024-07-26T15:31:13Z) - RDR: the Recap, Deliberate, and Respond Method for Enhanced Language
Understanding [6.738409533239947]
Recap、Deliberate、Respond(RDR)パラダイムは、ニューラルネットワークパイプラインに3つの異なる目的を組み込むことで、この問題に対処する。
これら3つのモデルをカスケードすることにより、ベンチマークをゲームする可能性を軽減し、基盤となるセマンティックパターンをキャプチャする堅牢な方法を確立する。
その結果,標準基準値の最大2%向上とともに,競争基準値と比較して性能が向上した。
論文 参考訳(メタデータ) (2023-12-15T16:41:48Z) - SequenceMatch: Imitation Learning for Autoregressive Sequence Modelling with Backtracking [60.109453252858806]
MLE(Maxum-likelihood)の目的は、高品質なシーケンスを自動回帰的に生成する下流のユースケースと一致しない。
我々は、模倣学習(IL)問題としてシーケンス生成を定式化する。
これにより、自己回帰モデルによって生成されるシーケンスの分布とデータセットからのシーケンスとの差異を最小化できる。
得られた手法であるSequenceMatchは、敵の訓練やアーキテクチャの変更なしに実装できる。
論文 参考訳(メタデータ) (2023-06-08T17:59:58Z) - Unsupervised Syntactically Controlled Paraphrase Generation with
Abstract Meaning Representations [59.10748929158525]
抽象表現(AMR)は、教師なし構文制御されたパラフレーズ生成の性能を大幅に向上させることができる。
提案モデルであるAMRPGは,AMRグラフを符号化し,入力文を2つの非絡み合った意味的および構文的埋め込みに解析する。
実験により、AMRPGは既存の教師なしアプローチと比較して、定量的かつ質的に、より正確な構文制御されたパラフレーズを生成することが示された。
論文 参考訳(メタデータ) (2022-11-02T04:58:38Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - A Correspondence Variational Autoencoder for Unsupervised Acoustic Word
Embeddings [50.524054820564395]
そこで本稿では,変数分割音声セグメントを固定次元表現にマッピングするための教師なしモデルを提案する。
結果として得られる音響単語の埋め込みは、低リソース言語とゼロリソース言語のための検索、発見、インデックスシステムの基礎を形成することができる。
論文 参考訳(メタデータ) (2020-12-03T19:24:42Z) - Unsupervised Paraphrasing with Pretrained Language Models [85.03373221588707]
教師なし環境で,事前学習した言語モデルを用いて高品質なパラフレーズを生成する訓練パイプラインを提案する。
提案手法は,タスク適応,自己スーパービジョン,動的ブロッキング(Dynamic Blocking)という新しい復号アルゴリズムから構成される。
提案手法は,Quora Question PairとParaNMTの両方のデータセット上で,最先端の性能を達成できることを示す。
論文 参考訳(メタデータ) (2020-10-24T11:55:28Z) - Self-Supervised Contrastive Learning for Unsupervised Phoneme
Segmentation [37.054709598792165]
このモデルは畳み込みニューラルネットワークであり、生波形上で直接動作する。
ノイズコントラスト推定原理を用いて信号のスペクトル変化を同定する。
テスト時には、モデル出力にピーク検出アルゴリズムを適用して最終境界を生成する。
論文 参考訳(メタデータ) (2020-07-27T12:10:21Z) - Improve Variational Autoencoder for Text Generationwith Discrete Latent
Bottleneck [52.08901549360262]
変分オートエンコーダ(VAE)は、エンドツーエンドの表現学習において必須のツールである。
VAEは強い自己回帰デコーダで潜伏変数を無視する傾向がある。
よりコンパクトな潜在空間において暗黙的な潜在特徴マッチングを強制する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2020-04-22T14:41:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。