論文の概要: XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- arxiv url: http://arxiv.org/abs/2104.04108v1
- Date: Thu, 8 Apr 2021 23:01:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 21:25:54.326966
- Title: XFORMAL: A Benchmark for Multilingual Formality Style Transfer
- Title(参考訳): XFORMAL:多言語形式的スタイル転送のためのベンチマーク
- Authors: Eleftheria Briakou, Di Lu, Ke Zhang, Joel Tetreault
- Abstract要約: XFORMALは、ポルトガル語、フランス語、イタリア語の非公式テキストの複数の形式改革のベンチマークです。
xformalの結果は、最先端のスタイル転送アプローチが単純なベースラインに近いことを示唆している。
- 参考スコア(独自算出の注目度): 10.610515753569716
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We take the first step towards multilingual style transfer by creating and
releasing XFORMAL, a benchmark of multiple formal reformulations of informal
text in Brazilian Portuguese, French, and Italian. Results on XFORMAL suggest
that state-of-the-art style transfer approaches perform close to simple
baselines, indicating that style transfer is even more challenging when moving
multilingual.
- Abstract(参考訳): ブラジルのポルトガル語、フランス語、イタリア語の非公式テキストの複数の形式的な改定のベンチマークであるXFORMALを作成し、リリースすることで、多言語スタイルの転送に向けた第一歩を踏み出します。
XFORMALの結果は、最先端のスタイル転送アプローチは単純なベースラインに近い性能を示し、多言語移動ではスタイル転送がさらに難しいことを示唆している。
関連論文リスト
- Cross-Lingual Transfer for Natural Language Inference via Multilingual Prompt Translator [104.63314132355221]
素早い学習による言語間移動は有望な効果を示した。
我々は,MPT(Multilingual Prompt Translator)という新しいフレームワークを提案する。
MPTは、ソース言語とはかなり異なる言語に移行する際、バニラプロンプトよりも顕著である。
論文 参考訳(メタデータ) (2024-03-19T03:35:18Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - Multilingual Pre-training with Language and Task Adaptation for
Multilingual Text Style Transfer [14.799109368073548]
事前学習したSeq2seqモデルmBARTを多言語テキストスタイルの転送に活用する。
機械翻訳データとゴールドアライメントの英語文を使えば、最先端の結果が得られる。
論文 参考訳(メタデータ) (2022-03-16T11:27:48Z) - X-METRA-ADA: Cross-lingual Meta-Transfer Learning Adaptation to Natural
Language Understanding and Question Answering [55.57776147848929]
自然言語理解のための言語横断型メタトランシュファー学習アプローチX-METRA-ADAを提案する。
我々のアプローチは、最適化に基づくメタ学習アプローチであるMAMLに適応し、新しい言語に適応することを学ぶ。
提案手法は難易度の高い微調整に優れており,ほとんどの言語において両タスクの競合性能に到達していることを示す。
論文 参考訳(メタデータ) (2021-04-20T00:13:35Z) - Transformers and Transfer Learning for Improving Portuguese Semantic
Role Labeling [2.9005223064604078]
低リソース言語、特にポルトガル語の場合、現在利用可能なSRLモデルは、トレーニングデータの不足によって妨げられます。
トレーニング済みのBERTモデル,線形層,ソフトマックス,ビタビ復号のみを用いたモデルアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-01-04T19:56:01Z) - Multilingual Transfer Learning for QA Using Translation as Data
Augmentation [13.434957024596898]
我々は,多言語組込みを意味空間に近づけることで,言語間伝達を改善する戦略を検討する。
言語敵対的トレーニングと言語仲裁フレームワークという2つの新しい戦略を提案し、(ゼロリソースの)クロスリンガルトランスファーのパフォーマンスを大幅に改善します。
実験により,提案モデルは,最近導入された多言語MLQAデータセットとTyDiQAデータセットにおいて,以前のゼロショットベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-12-10T20:29:34Z) - Semi-supervised Formality Style Transfer using Language Model
Discriminator and Mutual Information Maximization [52.867459839641526]
フォーマル・スタイル・トランスファー(英: Formality style transfer)とは、非公式な文を文法的に正しい形式文に変換するタスクである。
本稿では,言語モデルに基づく識別器を用いて,文が形式的である確率を最大化する半教師付き形式表現スタイル転送モデルを提案する。
実験の結果,我々のモデルは,自動計測と人的判断の両面で,従来の最先端のベースラインを著しく上回りました。
論文 参考訳(メタデータ) (2020-10-10T21:05:56Z) - MAD-X: An Adapter-Based Framework for Multi-Task Cross-Lingual Transfer [136.09386219006123]
我々は、任意のタスクや言語への高いポータビリティとパラメータ効率の移行を可能にするアダプタベースのフレームワークであるMAD-Xを提案する。
MAD-Xは、名前付きエンティティ認識と因果コモンセンス推論に基づいて、タイプボロジーに多様性のある言語群を横断する言語間移動において、芸術の状態を上回ります。
論文 参考訳(メタデータ) (2020-04-30T18:54:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。