論文の概要: Polyglot Prompt: Multilingual Multitask PrompTraining
- arxiv url: http://arxiv.org/abs/2204.14264v1
- Date: Fri, 29 Apr 2022 17:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 14:26:21.365775
- Title: Polyglot Prompt: Multilingual Multitask PrompTraining
- Title(参考訳): 多言語プロンプト:多言語マルチタスクプロンプトレイニング
- Authors: Jinlan Fu, See-Kiong Ng, Pengfei Liu
- Abstract要約: 異なる言語から異なるタスクを(タスク/言語固有のモジュールを使わずに)モノリシックなフレームワークでモデル化できるだろうか?
学習フレームワークであるPolyglot Promptを開発し、適切な多言語プロンプトエンジニアリングの後、異なる言語やタスクの統一的な意味空間を学習するためのプロンプト手法を導入する。
- 参考スコア(独自算出の注目度): 35.70124413465395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims for a potential architectural breakthrough for multilingual
learning and asks: could different tasks from different languages be modeled in
a monolithic framework (without any task/language-specific module)? The benefit
of achieving this is not only that systems trained on low resources scenario
can be assisted by more other languages and tasks, but opening new doors for
future multilingual research. We approach this goal by developing a learning
framework Polyglot Prompt, where prompting methods are introduced to learn a
unified semantic space for different languages and tasks after proper
multilingual prompt engineering. Experimentally, we perform a comprehensive
evaluation on 6 tasks (topic classification, sentiment classification, named
entity recognition, question answering, natural language inference,
summarization), 24 datasets, and 49 languages, which shows the efficacy of
multilingual multitask prompting training and suggests several interesting
observations. e.g., English prompts are polyglots since directly applying them
to task samples in other languages could result in a better improvement. We
also present an interpretable multilingual evaluation methodology and show how
the proposed framework, multilingual multitask prompt training, works. We
release all datasets prompted in the best setting and will release our code
soon.
- Abstract(参考訳): 異なる言語から異なるタスクを(タスク/言語固有のモジュールを使わずに)モノリシックなフレームワークでモデル化できるだろうか?
これを実現するメリットは、低リソースシナリオでトレーニングされたシステムが、他の言語やタスクによって支援されるだけでなく、将来の多言語研究のための新たなドアを開くことだ。
学習フレームワークであるPolyglot Promptを開発し、適切な多言語プロンプトエンジニアリングの後、異なる言語やタスクの統一的な意味空間を学習するためのプロンプト手法を導入する。
対象分類,感情分類,名前付きエンティティ認識,質問応答,自然言語推論,要約,24のデータセット,49の言語を包括的に評価し,マルチリンガル・マルチタスク・プロンプト・トレーニングの有効性を示すとともに,いくつかの興味深い知見を提案する。
例えば、英語のプロンプトは多言語であるため、他の言語のタスクサンプルに直接適用することで改善される可能性がある。
また, 解釈可能な多言語評価手法を提案し, 提案手法である多言語多言語プロンプトトレーニングがどのように機能するかを示す。
すべてのデータセットを最高の設定でリリースし、すぐにコードをリリースします。
- 全文 参考訳へのリンク
関連論文リスト
- Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - On Efficiently Acquiring Annotations for Multilingual Models [12.304046317362792]
一つのモデルを用いて複数の言語にまたがる共同学習の戦略は、上記の選択肢よりもかなり優れていることを示す。
この単純なアプローチにより、アノテーションの予算を不確実な言語に問い合わせることによって、モデルがデータ効率を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-03T07:42:13Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - xGQA: Cross-Lingual Visual Question Answering [100.35229218735938]
xGQAは視覚的質問応答タスクのための新しい多言語評価ベンチマークである。
確立された英語GQAデータセットを7言語に拡張する。
本稿では,マルチモーダルトランスフォーマーモデルに適応するアダプタベースの新しいアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-13T15:58:21Z) - Towards Developing a Multilingual and Code-Mixed Visual Question
Answering System by Knowledge Distillation [20.33235443471006]
本稿では,英語ビジョンモデル(教師)を,等しく効果的な多言語・コード混合モデル(学生)に拡張する知識蒸留手法を提案する。
また、大規模な多言語およびコード混合VQAデータセットを11の異なる言語セットアップで作成します。
実験結果と深部分析により,11種類の言語セットアップ上で,事前学習した言語ビジョンモデルに対して提案したVQAモデルの有効性が示された。
論文 参考訳(メタデータ) (2021-09-10T03:47:29Z) - Discovering Representation Sprachbund For Multilingual Pre-Training [139.05668687865688]
多言語事前学習モデルから言語表現を生成し、言語分析を行う。
すべての対象言語を複数のグループにクラスタリングし、表現のスプラックバンドとして各グループに名前を付ける。
言語間ベンチマークで実験を行い、強いベースラインと比較して大幅な改善が達成された。
論文 参考訳(メタデータ) (2021-09-01T09:32:06Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - Multilingual and cross-lingual document classification: A meta-learning
approach [24.66829920826166]
本稿では,文書分類におけるメタラーニング手法を提案する。
提案手法の有効性は2つの設定で示される:少数ショット,未確認言語への言語間適応,多言語共同訓練である。
論文 参考訳(メタデータ) (2021-01-27T10:22:56Z) - Meta-Learning for Effective Multi-task and Multilingual Modelling [23.53779501937046]
タスクと言語間の相互作用を学ぶためのメタラーニング手法を提案する。
我々は、XTREME多言語ベンチマークデータセットから5つの異なるタスクと6つの異なる言語に関する実験を提示する。
論文 参考訳(メタデータ) (2021-01-25T19:30:26Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。