論文の概要: Exploiting Social Media Content for Self-Supervised Style Transfer
- arxiv url: http://arxiv.org/abs/2205.08814v1
- Date: Wed, 18 May 2022 09:28:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-19 13:05:48.985550
- Title: Exploiting Social Media Content for Self-Supervised Style Transfer
- Title(参考訳): 自己監督型スタイル転送におけるソーシャルメディアコンテンツの利用
- Authors: Dana Ruiter, Thomas Kleinbauer, Cristina Espa\~na-Bonet, Josef van
Genabith, Dietrich Klakow
- Abstract要約: 非並列なソーシャルメディア投稿において、SSNMTをUNMT法で拡張し、効率よくオーバシリ信号の識別と活用を行う、新しいセルフスーパービジョンスタイル転送モデルを提案する。
3STは,3つの主要な目標(頻度,コンテンツ保存,属性転送精度)を最適にバランスさせることが可能であることを示す。
- 参考スコア(独自算出の注目度): 32.79593134043559
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research on style transfer takes inspiration from unsupervised neural
machine translation (UNMT), learning from large amounts of non-parallel data by
exploiting cycle consistency loss, back-translation, and denoising
autoencoders. By contrast, the use of self-supervised NMT (SSNMT), which
leverages (near) parallel instances hidden in non-parallel data more
efficiently than UNMT, has not yet been explored for style transfer. In this
paper we present a novel Self-Supervised Style Transfer (3ST) model, which
augments SSNMT with UNMT methods in order to identify and efficiently exploit
supervisory signals in non-parallel social media posts. We compare 3ST with
state-of-the-art (SOTA) style transfer models across civil rephrasing,
formality and polarity tasks. We show that 3ST is able to balance the three
major objectives (fluency, content preservation, attribute transfer accuracy)
the best, outperforming SOTA models on averaged performance across their tested
tasks in automatic and human evaluation.
- Abstract(参考訳): スタイル転送に関する最近の研究は、教師なしニューラルネットワーク翻訳(UNMT)からインスピレーションを得ており、サイクル整合性損失、バックトランスレーション、デノナイズオートエンコーダを利用して大量の非並列データから学習している。
対照的に、UNMTよりも効率的に非並列データに隠された(ほぼ)並列インスタンスを利用する自己教師型NTT(SSNMT)は、スタイル転送のためにはまだ検討されていない。
本稿では,UNMT法でSSNMTを増強し,非並列なソーシャルメディア投稿におけるオーバシィ信号の同定と有効活用を行う,新しいセルフスーパービジョン・スタイル・トランスファー(3ST)モデルを提案する。
第3段階と最先端のsota(state-of-the-art)方式のトランスファーモデルを比較した。
3stは3つの主要な目標(流動性、コンテンツ保存、属性転送の精度)を最良で、テストタスク全体の平均パフォーマンスにおいて、自動的および人的評価で比較可能なsotaモデルとバランスをとることができることを示した。
関連論文リスト
- Towards Zero-Shot Multimodal Machine Translation [64.9141931372384]
本稿では,マルチモーダル機械翻訳システムの学習において,完全教師付きデータの必要性を回避する手法を提案する。
我々の手法はZeroMMTと呼ばれ、2つの目的の混合で学習することで、強いテキストのみの機械翻訳(MT)モデルを適応させることである。
本手法が完全に教師付きトレーニングデータを持たない言語に一般化されることを証明するため,CoMMuTE評価データセットをアラビア語,ロシア語,中国語の3言語に拡張した。
論文 参考訳(メタデータ) (2024-07-18T15:20:31Z) - Optimizing Non-Autoregressive Transformers with Contrastive Learning [74.46714706658517]
非自己回帰変換器(NAT)は、逐次順序ではなく全ての単語を同時に予測することにより、自動回帰変換器(AT)の推論遅延を低減する。
本稿では,データ分布ではなく,モデル分布からのサンプリングによるモダリティ学習の容易化を提案する。
論文 参考訳(メタデータ) (2023-05-23T04:20:13Z) - Non-Parallel Text Style Transfer with Self-Parallel Supervision [19.441780035577352]
大規模言語モデルに基づく新しいテキストスタイル転送フレームワークであるLaMerを提案する。
LaMerはまず、シーングラフで非並列データセットのほぼ並列表現をマイニングし、続いてMLEトレーニングを使用し、続いて模倣学習の改良を行い、データ内の本質的な並列性を活用する。
2つのベンチマークタスク(センチメントとフォーマル性転送)と、新たに提案された課題タスク(政治的スタンス転送)において、我々のモデルは、転送精度、コンテンツ保存および流速の質的な進歩を達成する。
論文 参考訳(メタデータ) (2022-04-18T01:38:35Z) - The USYD-JD Speech Translation System for IWSLT 2021 [85.64797317290349]
本稿では,シドニー大学とJDが共同でIWSLT 2021低リソース音声翻訳タスクを提出したことを述べる。
私たちは、公式に提供されたASRとMTデータセットでモデルをトレーニングしました。
翻訳性能の向上を目的として, バック翻訳, 知識蒸留, 多機能再構成, トランスダクティブファインタニングなど, 最新の効果的な手法について検討した。
論文 参考訳(メタデータ) (2021-07-24T09:53:34Z) - Alternated Training with Synthetic and Authentic Data for Neural Machine
Translation [49.35605028467887]
ニューラルマシン翻訳(NMT)のための合成および認証データを用いた交互トレーニングを提案する。
従来の研究と比較して,ノイズの多い合成データによってNMTモデルのトレーニングが妨げられるのを防止するためのガイダンスとして,認証データを導入している。
中国語・ドイツ語・英語の翻訳タスクの実験は、我々のアプローチがいくつかの強いベースラインにまたがって性能を向上させることを示している。
論文 参考訳(メタデータ) (2021-06-16T07:13:16Z) - Exploring Unsupervised Pretraining Objectives for Machine Translation [99.5441395624651]
教師なし言語間事前訓練は、ニューラルマシン翻訳(NMT)の強力な結果を得た
ほとんどのアプローチは、入力の一部をマスキングしてデコーダで再構成することで、シーケンス・ツー・シーケンスアーキテクチャにマスク付き言語モデリング(MLM)を適用する。
マスキングと、実際の(完全な)文に似た入力を生成する代替目的を、文脈に基づいて単語を並べ替えて置き換えることにより比較する。
論文 参考訳(メタデータ) (2021-06-10T10:18:23Z) - On Learning Text Style Transfer with Direct Rewards [101.97136885111037]
平行コーパスの欠如により、テキストスタイルの転送タスクの教師付きモデルを直接訓練することは不可能である。
我々は、当初、微調整されたニューラルマシン翻訳モデルに使用されていた意味的類似度指標を活用している。
我々のモデルは、強いベースラインに対する自動評価と人的評価の両方において大きな利益をもたらす。
論文 参考訳(メタデータ) (2020-10-24T04:30:02Z) - Self-Induced Curriculum Learning in Self-Supervised Neural Machine
Translation [20.718093208111547]
SSNMTは、同等の(並列ではなく)コーパスから適切なトレーニングデータを特定し、選択することを学ぶ。
本研究では,SSNMTモデルがトレーニング中に行うサンプリング選択について,詳細な分析を行う。
我々は,SSNMTが高校生に適したウィキペディアデータから抽出および学習を始めたことを,Gunning-Fog Readability indexの観点から示す。
論文 参考訳(メタデータ) (2020-04-07T06:45:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。