論文の概要: Low Resource Style Transfer via Domain Adaptive Meta Learning
- arxiv url: http://arxiv.org/abs/2205.12475v1
- Date: Wed, 25 May 2022 03:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 12:27:34.826838
- Title: Low Resource Style Transfer via Domain Adaptive Meta Learning
- Title(参考訳): ドメイン適応型メタ学習による低リソーススタイル転送
- Authors: Xiangyang Li, Xiang Long, Yu Xia, Sujian Li
- Abstract要約: 本稿では,DAMLとATMの2つの部分からなるDAML-ATM(Domain Adaptive Meta-Learning with Adversarial Transfer Model)を提案する。
DAMLは、複数の異種ソースドメインで一般的な知識を学ぶためのドメイン適応型メタラーニングアプローチであり、少量のデータで新しい未知のドメインに適応することができる。
また,非教師付きTSTアプローチであるAdversarial Transfer Model (ATM)を提案する。
- 参考スコア(独自算出の注目度): 30.323491061441857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text style transfer (TST) without parallel data has achieved some practical
success. However, most of the existing unsupervised text style transfer methods
suffer from (i) requiring massive amounts of non-parallel data to guide
transferring different text styles. (ii) colossal performance degradation when
fine-tuning the model in new domains. In this work, we propose DAML-ATM (Domain
Adaptive Meta-Learning with Adversarial Transfer Model), which consists of two
parts: DAML and ATM. DAML is a domain adaptive meta-learning approach to learn
general knowledge in multiple heterogeneous source domains, capable of adapting
to new unseen domains with a small amount of data. Moreover, we propose a new
unsupervised TST approach Adversarial Transfer Model (ATM), composed of a
sequence-to-sequence pre-trained language model and uses adversarial style
training for better content preservation and style transfer. Results on
multi-domain datasets demonstrate that our approach generalizes well on unseen
low-resource domains, achieving state-of-the-art results against ten strong
baselines.
- Abstract(参考訳): 並列データのないテキストスタイル転送 (TST) は実用的成功を収めた。
しかし、既存の教師なしのテキストスタイル転送手法のほとんどは、
(i)異なるテキストスタイルを転送するための大量の非並列データを必要とする。
(II)新しいドメインでモデルを微調整する際の余剰性能劣化。
本研究では,DAMLとATMの2つの部分からなるDAML-ATM(Domain Adaptive Meta-Learning with Adversarial Transfer Model)を提案する。
DAMLは、複数の異種ソースドメインで一般的な知識を学ぶためのドメイン適応型メタラーニングアプローチであり、少量のデータで新しい未知のドメインに適応することができる。
さらに,sequence-to-sequence pre-trained language modelとadversarial style trainingを用いた教師なしtstアプローチadversarial transfer model (atm)を提案する。
マルチドメインデータセットの結果から,本手法は低リソースドメインを十分に一般化し,強固な10のベースラインに対して最先端の結果を得る。
関連論文リスト
- Learning to Generalize Unseen Domains via Multi-Source Meta Learning for Text Classification [71.08024880298613]
テキスト分類の多元的領域一般化について検討する。
本稿では、複数の参照ドメインを使用して、未知のドメインで高い精度を達成可能なモデルをトレーニングするフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-20T07:46:21Z) - StyDeSty: Min-Max Stylization and Destylization for Single Domain Generalization [85.18995948334592]
単一のドメインの一般化(単一DG)は、単一のトレーニングドメインからのみ見えないドメインに一般化可能な堅牢なモデルを学ぶことを目的としている。
最先端のアプローチは、主に新しいデータを合成するために、敵対的な摂動やスタイルの強化といったデータ拡張に頼っている。
データ拡張の過程で、ソースと擬似ドメインのアライメントを明示的に考慮したemphStyDeStyを提案する。
論文 参考訳(メタデータ) (2024-06-01T02:41:34Z) - SALUDA: Surface-based Automotive Lidar Unsupervised Domain Adaptation [62.889835139583965]
我々は、ソースデータとターゲットデータに基づいて、暗黙の基盤となる表面表現を同時に学習する教師なし補助タスクを導入する。
両方のドメインが同じ遅延表現を共有しているため、モデルは2つのデータソース間の不一致を許容せざるを得ない。
実験の結果,本手法は実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-実-
論文 参考訳(メタデータ) (2023-04-06T17:36:23Z) - ADAS: A Direct Adaptation Strategy for Multi-Target Domain Adaptive
Semantic Segmentation [12.148050135641583]
ドメイン間の視覚的属性を整列するマルチターゲットドメイン転送ネットワーク(MTDT-Net)を設計する。
また、クラスラベル間の属性のあいまいさを低減する双方向適応型領域選択(BARS)を提案する。
本手法は,セマンティックセグメンテーションにおいて複数のドメインに直接適応する最初のMTDA法である。
論文 参考訳(メタデータ) (2022-03-14T01:55:42Z) - T-SVDNet: Exploring High-Order Prototypical Correlations for
Multi-Source Domain Adaptation [41.356774580308986]
マルチソースドメイン適応の課題に対処するために,T-SVDNetという新しい手法を提案する。
複数のドメインとカテゴリの高次相関は、ドメインギャップを埋めるため、完全に検討されている。
ノイズ源データによる負の伝達を回避するため,新しい不確実性を考慮した重み付け手法を提案する。
論文 参考訳(メタデータ) (2021-07-30T06:33:05Z) - Semi-supervised Meta-learning with Disentanglement for
Domain-generalised Medical Image Segmentation [15.351113774542839]
新たなセンター(ここではドメイン)からの新しいデータにモデルを一般化することは、依然として課題である。
本稿では,絡み合いを伴う半教師付きメタラーニングフレームワークを提案する。
提案手法は,異なるセグメンテーションタスクに対して頑健であり,2つの公開ベンチマーク上での最先端の一般化性能を実現する。
論文 参考訳(メタデータ) (2021-06-24T19:50:07Z) - Domain Adaptation in Dialogue Systems using Transfer and Meta-Learning [12.64591916699374]
現在の生成ベースの対話システムは、少量のターゲットデータしか利用できない場合、新しい未知のドメインに適応できない。
トランスファーとメタラーニングを組み合わせることにより,未知の領域に適応する手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T16:16:57Z) - Learning to Generalize Unseen Domains via Memory-based Multi-Source
Meta-Learning for Person Re-Identification [59.326456778057384]
本稿では,メモリベースのマルチソースメタラーニングフレームワークを提案する。
また,メタテスト機能を多様化するメタバッチ正規化層(MetaBN)を提案する。
実験により、M$3$Lは、目に見えない領域に対するモデルの一般化能力を効果的に向上できることが示された。
論文 参考訳(メタデータ) (2020-12-01T11:38:16Z) - Supervised Domain Adaptation using Graph Embedding [86.3361797111839]
領域適応法は、2つの領域間の分布がシフトし、それを認識しようとすると仮定する。
グラフ埋め込みに基づく汎用フレームワークを提案する。
提案手法が強力なドメイン適応フレームワークにつながることを示す。
論文 参考訳(メタデータ) (2020-03-09T12:25:13Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。