論文の概要: So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- arxiv url: http://arxiv.org/abs/2205.04093v1
- Date: Mon, 9 May 2022 07:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 22:02:08.151320
- Title: So Different Yet So Alike! Constrained Unsupervised Text Style Transfer
- Title(参考訳): 相変わらず似てる!
制約付き教師なしテキストスタイル転送
- Authors: Abhinav Ramesh Kashyap, Devamanyu Hazarika, Min-Yen Kan, Roger
Zimmermann, Soujanya Poria
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)モデルに2つの相補的損失を導入することによって,制約付き教師なしテキストスタイル転送を実現する手法を提案する。
GANにおける競合的損失とは違って,識別器とジェネレータが協調して同じ損失を減少させる協調的損失を導入する。
自動評価と人的評価の両方法により, 相補的な協調的損失がテキスト品質を向上させることを示す。
- 参考スコア(独自算出の注目度): 54.4773992696361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic transfer of text between domains has become popular in recent
times. One of its aims is to preserve the semantic content of text being
translated from source to target domain. However, it does not explicitly
maintain other attributes between the source and translated text, for e.g.,
text length and descriptiveness. Maintaining constraints in transfer has
several downstream applications, including data augmentation and de-biasing. We
introduce a method for such constrained unsupervised text style transfer by
introducing two complementary losses to the generative adversarial network
(GAN) family of models. Unlike the competing losses used in GANs, we introduce
cooperative losses where the discriminator and the generator cooperate and
reduce the same loss. The first is a contrastive loss and the second is a
classification loss, aiming to regularize the latent space further and bring
similar sentences across domains closer together. We demonstrate that such
training retains lexical, syntactic, and domain-specific constraints between
domains for multiple benchmark datasets, including ones where more than one
attribute change. We show that the complementary cooperative losses improve
text quality, according to both automated and human evaluation measures.
- Abstract(参考訳): 近年ではドメイン間のテキストの自動転送が普及している。
その目的の1つは、ソースからターゲットドメインへ翻訳されるテキストの意味的コンテンツを保存することである。
しかし、テキストの長さや記述性など、ソースと翻訳テキストの間の他の属性を明示的に保持していない。
転送の制約を維持するには、データ拡張やデバイアスを含むいくつかの下流アプリケーションがある。
本稿では,GAN(Generative Adversarial Network)モデルに2つの相補的損失を導入することによって,そのような制約のないテキストスタイル転送を実現する手法を提案する。
GANにおける競合的損失とは違って,識別器とジェネレータが協調して同じ損失を減少させる協調的損失を導入する。
1つは対照的な損失であり、もう1つは分類損失であり、潜在空間をさらに規則化し、類似した文をドメイン全体に近づけることを目的としている。
このようなトレーニングは複数のベンチマークデータセットに対するドメイン間の語彙的制約、構文的制約、ドメイン固有の制約を保ち、複数の属性が変更されることを実証する。
自動評価と人的評価の両面で,補完的な協調的損失がテキスト品質を向上させることを示す。
関連論文リスト
- Domain-Agnostic Mutual Prompting for Unsupervised Domain Adaptation [27.695825570272874]
従来のUnsupervised Domain Adaptation (UDA)は、ドメイン間の分散の差を最小限にしようと努力している。
ドメイン非依存型Multual Prompting (DAMP) を提案する。
3つのUDAベンチマークの実験は、最先端のアプローチよりもDAMPの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-03-05T12:06:48Z) - A Novel Estimator of Mutual Information for Learning to Disentangle
Textual Representations [27.129551973093008]
本稿では、属性とエンコーダの潜入コードの間の相互情報に有する新しい変動上界について紹介する。
これは、Renyiの発散による近似誤差の制御を目標とし、より良い離散表現と望ましい離散度の正確な制御の両方をもたらす。
公平な分類とテキストスタイルの転送タスクにおいて、この方法の優位性を示す。
論文 参考訳(メタデータ) (2021-05-06T14:05:06Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - DINO: A Conditional Energy-Based GAN for Domain Translation [67.9879720396872]
ドメイン翻訳は、共通のセマンティクスを維持しながら、あるドメインから別のドメインにデータを変換するプロセスです。
最も人気のあるドメイン翻訳システムは条件付き生成逆数ネットワークに基づいている。
本稿では,2つのネットワークを同時に教師付きで訓練し,反対方向のドメイン翻訳を行う新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-18T11:52:45Z) - Simultaneous Semantic Alignment Network for Heterogeneous Domain
Adaptation [67.37606333193357]
本稿では,カテゴリ間の相関を同時に利用し,各カテゴリ毎のセントロイドを整列させるために,aSimultaneous Semantic Alignment Network (SSAN)を提案する。
対象の擬似ラベルを利用することで、各カテゴリの特徴表現を整列させるために、ロバストな三重項中心のアライメント機構を明示的に適用する。
テキスト・ツー・イメージ、画像・画像・テキスト・ツー・テキストにわたる様々なHDAタスクの実験は、最先端のHDA手法に対するSSANの優位性を検証することに成功した。
論文 参考訳(メタデータ) (2020-08-04T16:20:37Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z) - Differential Treatment for Stuff and Things: A Simple Unsupervised
Domain Adaptation Method for Semantic Segmentation [105.96860932833759]
最先端のアプローチは、セマンティックレベルのアライメントの実行がドメインシフトの問題に取り組むのに役立つことを証明している。
我々は,物事領域や物事に対する異なる戦略による意味レベルのアライメントを改善することを提案する。
提案手法に加えて,提案手法は,ソースとターゲットドメイン間の最も類似した機能やインスタンス機能を最小化することにより,この問題の緩和に有効であることを示す。
論文 参考訳(メタデータ) (2020-03-18T04:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。