論文の概要: Few-shot Controllable Style Transfer for Low-Resource Settings: A Study
in Indian Languages
- arxiv url: http://arxiv.org/abs/2110.07385v1
- Date: Thu, 14 Oct 2021 14:16:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-15 12:52:40.372696
- Title: Few-shot Controllable Style Transfer for Low-Resource Settings: A Study
in Indian Languages
- Title(参考訳): 低リソース設定のためのマイナショット制御可能なスタイル転送:インド言語における研究
- Authors: Kalpesh Krishna, Deepak Nathani, Xavier Garcia, Bidisha Samanta,
Partha Talukdar
- Abstract要約: スタイル転送は、その内容を保持しながら入力文をターゲットスタイルに書き換えるタスクである。
パラフレーズ間のスタイリスティックな差異をモデル化した新しい手法により,数ショットスタイルのトランスファーの最先端を推し進める。
本モデルでは,5言語にまたがる形式性伝達およびコード混合付加における性能と出力の多様性を2~3倍に向上する。
- 参考スコア(独自算出の注目度): 13.980482277351523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Style transfer is the task of rewriting an input sentence into a target style
while approximately preserving its content. While most prior literature assumes
access to large style-labelled corpora, recent work (Riley et al. 2021) has
attempted "few-shot" style transfer using only 3-10 sentences at inference for
extracting the target style. In this work we consider one such low resource
setting where no datasets are available: style transfer for Indian languages.
We find that existing few-shot methods perform this task poorly, with a strong
tendency to copy inputs verbatim. We push the state-of-the-art for few-shot
style transfer with a new method modeling the stylistic difference between
paraphrases. When compared to prior work using automatic and human evaluations,
our model achieves 2-3x better performance and output diversity in formality
transfer and code-mixing addition across five Indian languages. Moreover, our
method is better able to control the amount of style transfer using an input
scalar knob. We report promising qualitative results for several attribute
transfer directions, including sentiment transfer, text simplification, gender
neutralization and text anonymization, all without retraining the model.
Finally we found model evaluation to be difficult due to the lack of evaluation
datasets and metrics for Indian languages. To facilitate further research in
formality transfer for Indic languages, we crowdsource annotations for 4000
sentence pairs in four languages, and use this dataset to design our automatic
evaluation suite.
- Abstract(参考訳): スタイル転送は、入力文をほぼコンテンツを保存しながら、ターゲットスタイルに書き換えるタスクである。
多くの文献では、大きなスタイルのコーパスへのアクセスを前提としているが、最近の研究 (Riley et al. 2021) では、ターゲットのスタイルを抽出するために、推論時に3~10文のみを使用して「ファウショット」スタイルの転送を試みた。
本研究では,インド言語用のスタイル転送という,データセットが使用できない低リソース設定について検討する。
提案手法では,入力をコピーする傾向が強いため,既存手法ではこの処理が不十分であることが判明した。
パラフレーズ間のスタイリスティックな差異をモデル化する新しい手法を用いて,最先端のマイナショットスタイル転送をプッシュする。
自動評価と人的評価を併用した先行研究と比較すると, フォーマル性伝達における性能と出力の多様性は2~3倍に向上する。
さらに,本手法は入力スカラーノブを用いてスタイル転送量を制御できる。
我々は,感情伝達,テキスト簡易化,性中立化,テキスト匿名化など,いくつかの属性伝達方向の質的結果について,モデルを再訓練することなく報告する。
最後に、インドの言語に対する評価データセットやメトリクスが不足しているため、モデル評価が困難であることが判明した。
Indic言語の公式化のさらなる研究を容易にするため、4つの言語で4000の文対のアノテーションをクラウドソースし、このデータセットを使用して自動評価スイートを設計した。
関連論文リスト
- Breaking the Script Barrier in Multilingual Pre-Trained Language Models with Transliteration-Based Post-Training Alignment [50.27950279695363]
転送性能は、低リソースのターゲット言語が高リソースのソース言語とは異なるスクリプトで書かれている場合、しばしば妨げられる。
本論文は,この問題に対処するために翻訳を用いた最近の研究に触発されて,翻訳に基づくポストプレトレーニングアライメント(PPA)手法を提案する。
論文 参考訳(メタデータ) (2024-06-28T08:59:24Z) - Are Large Language Models Actually Good at Text Style Transfer? [0.17751300245073598]
テキストスタイル転送(TST)を用いた大規模言語モデル(LLM)の性能解析を行う。
TSTは、中核的な内容を保持しながら、テキストの言語スタイルを変更することを含む。
我々は、ゼロショットと少数ショットのプロンプトと、公開されているデータセットに対するパラメータ効率の微調整を用いて、事前訓練されたLLMの能力を評価する。
論文 参考訳(メタデータ) (2024-06-09T18:45:41Z) - Don't lose the message while paraphrasing: A study on content preserving
style transfer [61.38460184163704]
スタイル伝達研究の現実的な応用には,コンテンツ保存が不可欠である。
形式性伝達領域の例において、様々なスタイル転送モデルを比較する。
我々は,スタイル伝達のための最先端技術について,精密な比較研究を行っている。
論文 参考訳(メタデータ) (2023-08-17T15:41:08Z) - Conversation Style Transfer using Few-Shot Learning [56.43383396058639]
本稿では,会話スタイルの伝達を数ショットの学習問題として紹介する。
そこで本研究では,スタイルフリー対話による課題をピボットとして解くための,コンテキスト内学習手法を提案する。
会話スタイルの転送は下流のタスクにも役立ちます。
論文 参考訳(メタデータ) (2023-02-16T15:27:00Z) - StoryTrans: Non-Parallel Story Author-Style Transfer with Discourse
Representations and Content Enhancing [73.81778485157234]
長文は通常、文よりも談話構造のような複雑な著者の言語的嗜好を含んでいる。
我々は、入力されたストーリーを特定の著者スタイルに転送する必要があるノン並列ストーリー作者スタイル転送のタスクを定式化する。
モデルが自動エンコーダに退化することを防ぐために,学習した談話表現からスタイル的特徴を引き離すための追加の学習目標を用いる。
論文 参考訳(メタデータ) (2022-08-29T08:47:49Z) - Reformulating Unsupervised Style Transfer as Paraphrase Generation [48.83148014000888]
パラフレーズ生成問題として教師なしスタイル転送を再構成する。
本稿では,自動生成したパラフレーズデータに基づいて,微調整事前学習言語モデルに基づく簡単な手法を提案する。
また、11種類の異なるスタイルで15万文の大規模なデータセットを収集することで、より現実的なスタイルの転送設定に転換する。
論文 参考訳(メタデータ) (2020-10-12T13:31:01Z) - PGST: a Polyglot Gender Style Transfer method [5.220940151628734]
PGSTは、ジェンダー領域における新しい多言語テキストスタイルのトランスファーアプローチである。
提案手法の事前定義された要素を満たすことで,複数の言語でスタイル転送手法を適用することが可能である。
本手法の多言語適用性を示すため,英語とペルシャ語の両方のコーパスに適用した。
論文 参考訳(メタデータ) (2020-09-02T13:15:11Z) - Politeness Transfer: A Tag and Generate Approach [167.9924201435888]
本稿では, 丁寧性伝達の新たな課題について紹介する。
意味を保ちながら、非政治的な文を丁寧な文に変換することを含む。
我々はタグを設計し、スタイル属性を識別するパイプラインを生成し、その後、ターゲットスタイルで文を生成する。
論文 参考訳(メタデータ) (2020-04-29T15:08:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。