論文の概要: Parallel Data Augmentation for Formality Style Transfer
- arxiv url: http://arxiv.org/abs/2005.07522v1
- Date: Thu, 14 May 2020 04:05:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 05:04:44.888717
- Title: Parallel Data Augmentation for Formality Style Transfer
- Title(参考訳): 形式的スタイル転送のための並列データ拡張
- Authors: Yi Zhang, Tao Ge, Xu Sun
- Abstract要約: 本稿では,並列データの拡張手法について検討し,この課題に対する新しい単純なデータ拡張手法を提案する。
実験により、我々の拡張並列データにより、モデルの事前トレーニングに使用する場合、フォーマルなスタイルの転送が大幅に改善されることが示されている。
- 参考スコア(独自算出の注目度): 27.557690344637034
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The main barrier to progress in the task of Formality Style Transfer is the
inadequacy of training data. In this paper, we study how to augment parallel
data and propose novel and simple data augmentation methods for this task to
obtain useful sentence pairs with easily accessible models and systems.
Experiments demonstrate that our augmented parallel data largely helps improve
formality style transfer when it is used to pre-train the model, leading to the
state-of-the-art results in the GYAFC benchmark dataset.
- Abstract(参考訳): 形式的スタイル転送(Formality Style Transfer)タスクの進捗に対する大きな障壁は、トレーニングデータの不十分さである。
本稿では,並列データの拡張方法について検討し,容易にアクセス可能なモデルとシステムを持つ有用な文対を得るための,新しい簡易データ拡張手法を提案する。
実験により、我々の拡張並列データは、モデルを事前訓練する際に形式的スタイルの転送を改善するのに大きく役立ち、GYAFCベンチマークデータセットの最先端結果につながることが示された。
関連論文リスト
- Latent mixed-effect models for high-dimensional longitudinal data [6.103940626659986]
LMM-VAEは,長手データに対するスケーラブルで解釈可能で識別可能なモデルである。
我々は,GPに基づく手法と理論的な関係を強調し,この手法の統一的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-09-17T09:16:38Z) - Encapsulating Knowledge in One Prompt [56.31088116526825]
KiOPは、元のモデルを変更したり、トレーニングデータにアクセスする必要なしに、さまざまなモデルからの知識を単独のプロンプトにカプセル化する。
実用性の観点から、このパラダイムは、データアクセス不能なコンテキストにおけるVisual Promptの有効性を証明している。
様々なデータセットとモデルを用いた実験は、提案したKiOP知識伝達パラダイムの有効性を示す。
論文 参考訳(メタデータ) (2024-07-16T16:35:23Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - Non-Parallel Text Style Transfer with Self-Parallel Supervision [19.441780035577352]
大規模言語モデルに基づく新しいテキストスタイル転送フレームワークであるLaMerを提案する。
LaMerはまず、シーングラフで非並列データセットのほぼ並列表現をマイニングし、続いてMLEトレーニングを使用し、続いて模倣学習の改良を行い、データ内の本質的な並列性を活用する。
2つのベンチマークタスク(センチメントとフォーマル性転送)と、新たに提案された課題タスク(政治的スタンス転送)において、我々のモデルは、転送精度、コンテンツ保存および流速の質的な進歩を達成する。
論文 参考訳(メタデータ) (2022-04-18T01:38:35Z) - Semi-Supervised Formality Style Transfer with Consistency Training [14.837655109835769]
我々は、ソース側の未ラベル文をよりよく活用するための半教師付きフレームワークを提案する。
具体的には、ソース側非公式文から得られた擬似並列データを強化する。
我々の手法は、40%未満の並列データでも、最先端の結果が得られる。
論文 参考訳(メタデータ) (2022-03-25T12:40:36Z) - How Well Do Sparse Imagenet Models Transfer? [75.98123173154605]
転送学習は、大規模な"上流"データセットで事前訓練されたモデルが、"下流"データセットで良い結果を得るために適応される古典的なパラダイムである。
本研究では、ImageNetデータセットでトレーニングされた畳み込みニューラルネットワーク(CNN)のコンテキストにおいて、この現象を詳細に調査する。
スパースモデルでは, 高空間であっても, 高密度モデルの転送性能にマッチしたり, 性能に優れることを示す。
論文 参考訳(メタデータ) (2021-11-26T11:58:51Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Semi-supervised Formality Style Transfer using Language Model
Discriminator and Mutual Information Maximization [52.867459839641526]
フォーマル・スタイル・トランスファー(英: Formality style transfer)とは、非公式な文を文法的に正しい形式文に変換するタスクである。
本稿では,言語モデルに基づく識別器を用いて,文が形式的である確率を最大化する半教師付き形式表現スタイル転送モデルを提案する。
実験の結果,我々のモデルは,自動計測と人的判断の両面で,従来の最先端のベースラインを著しく上回りました。
論文 参考訳(メタデータ) (2020-10-10T21:05:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。