論文の概要: STIL -- Simultaneous Slot Filling, Translation, Intent Classification,
and Language Identification: Initial Results using mBART on MultiATIS++
- arxiv url: http://arxiv.org/abs/2010.00760v1
- Date: Fri, 2 Oct 2020 03:09:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 01:23:31.963185
- Title: STIL -- Simultaneous Slot Filling, Translation, Intent Classification,
and Language Identification: Initial Results using mBART on MultiATIS++
- Title(参考訳): STIL -- 同時スロットフィリング、翻訳、インテント分類、言語識別:mBART on MultiATIS++ による初期結果
- Authors: Jack G. M. FitzGerald
- Abstract要約: Slot-filling, Translation, Intent Classification, and Language Identification (STIL)は、多言語自然言語理解(NLU)のための新しいタスクである。
結果は、MultiATIS++データセットを使用して7言語で微調整された多言語BARTモデルを用いて与えられる。
同時翻訳を行うと、平均意図分類精度は1.7%しか低下せず、平均スロットF1は1.2%しか低下しない。
- 参考スコア(独自算出の注目度): 0.10152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Slot-filling, Translation, Intent classification, and Language
identification, or STIL, is a newly-proposed task for multilingual Natural
Language Understanding (NLU). By performing simultaneous slot filling and
translation into a single output language (English in this case), some portion
of downstream system components can be monolingual, reducing development and
maintenance cost. Results are given using the multilingual BART model (Liu et
al., 2020) fine-tuned on 7 languages using the MultiATIS++ dataset. When no
translation is performed, mBART's performance is comparable to the current
state of the art system (Cross-Lingual BERT by Xu et al. (2020)) for the
languages tested, with better average intent classification accuracy (96.07%
versus 95.50%) but worse average slot F1 (89.87% versus 90.81%). When
simultaneous translation is performed, average intent classification accuracy
degrades by only 1.7% relative and average slot F1 degrades by only 1.2%
relative.
- Abstract(参考訳): Slot-filling, Translation, Intent Classification, and Language Identification (STIL)は、多言語自然言語理解(NLU)のための新しいタスクである。
単一の出力言語への同時スロット充填と変換(このケースでは英語)を行うことで、下流システムコンポーネントの一部が単言語になり、開発とメンテナンスコストが削減される。
結果は、MultiATIS++データセットを使用して7言語で微調整された多言語BARTモデル(Liu et al., 2020)を用いて与えられる。
翻訳が実行されない場合、mBARTのパフォーマンスはテスト対象言語(XuらによるCross-Lingual BERT(2020年))の現在の状態に匹敵するが、平均意図分類精度(96.07%対95.50%)は向上するが、平均スロットF1(89.87%対90.81%)は悪い。
同時翻訳を行うと、平均意図分類精度は1.7%程度低下し、平均スロットF1は1.2%程度低下する。
関連論文リスト
- Language-Family Adapters for Low-Resource Multilingual Neural Machine
Translation [129.99918589405675]
自己超越で訓練された大規模多言語モデルは、幅広い自然言語処理タスクにおいて最先端の結果を達成する。
マルチリンガルな微調整は低リソース言語のパフォーマンスを向上させるが、モデル全体を変更する必要があるため、極めて高価である。
言語間移動を容易にするため,mBART-50上で言語ファミリーアダプタを訓練する。
論文 参考訳(メタデータ) (2022-09-30T05:02:42Z) - OneAligner: Zero-shot Cross-lingual Transfer with One Rich-Resource
Language Pair for Low-Resource Sentence Retrieval [91.76575626229824]
文検索タスク用に特別に設計されたアライメントモデルであるOneAlignerを提案する。
大規模並列多言語コーパス(OPUS-100)の全ての言語ペアで訓練すると、このモデルは最先端の結果が得られる。
実験結果から,文アライメントタスクの性能はモノリンガルおよび並列データサイズに大きく依存することがわかった。
論文 参考訳(メタデータ) (2022-05-17T19:52:42Z) - Towards the Next 1000 Languages in Multilingual Machine Translation:
Exploring the Synergy Between Supervised and Self-Supervised Learning [48.15259834021655]
数百の言語をカバーする多言語機械翻訳モデルを構築するための実践的なアプローチを提案する。
私たちは、異なる言語ペアのデータ可用性に応じて、教師付きと自己監督型の目的の混合を使用します。
この2つのトレーニングパラダイム間の相乗効果により、ゼロリソース設定で高品質な翻訳を生成できることを実証する。
論文 参考訳(メタデータ) (2022-01-09T23:36:44Z) - Improving Zero-shot Multilingual Neural Machine Translation for
Low-Resource Languages [1.0965065178451106]
タグ付き多言語NMTモデルを提案し,これら2つの問題に対処する自己学習アルゴリズムを改良する。
IWSLTの実験結果によると、調整されたタグ付き多言語NMTは、多言語NMTに対して9.41と7.85のBLEUスコアを得る。
論文 参考訳(メタデータ) (2021-10-02T02:50:53Z) - Contrastive Learning for Many-to-many Multilingual Neural Machine
Translation [16.59039088482523]
既存の多言語機械翻訳アプローチは主に英語中心の方向に焦点を当てている。
我々は、英語以外の方向の質を重視した多言語翻訳システムの構築を目指している。
論文 参考訳(メタデータ) (2021-05-20T03:59:45Z) - Continual Mixed-Language Pre-Training for Extremely Low-Resource Neural
Machine Translation [53.22775597051498]
我々は,mbart を未熟な言語に効果的に適用するための,継続的な事前学習フレームワークを提案する。
その結果,mBARTベースラインの微調整性能を一貫して改善できることが示された。
私たちのアプローチは、両方の言語が元のmBARTの事前トレーニングで見られる翻訳ペアのパフォーマンスを高めます。
論文 参考訳(メタデータ) (2021-05-09T14:49:07Z) - Beyond English-Centric Multilingual Machine Translation [74.21727842163068]
我々は真の多言語多言語翻訳モデルを作成し、100言語のいずれかのペア間で直接翻訳できる。
大規模なマイニングによって生成された教師付きデータで、数千の言語方向をカバーするトレーニングデータセットを構築し、オープンソースにしています。
WMTのベストシングルシステムに競争力を持たせながら、非英語の方向を直接翻訳する場合、非英語モデルに焦点をあてると10 BLEU以上のゲインが得られる。
論文 参考訳(メタデータ) (2020-10-21T17:01:23Z) - Explicit Alignment Objectives for Multilingual Bidirectional Encoders [111.65322283420805]
本稿では,多言語エンコーダAMBER(Aligned Multilingual Bi-directional EncodeR)の学習方法を提案する。
AMBERは、異なる粒度で多言語表現を整列する2つの明示的なアライメント目標を使用して、追加の並列データに基づいて訓練される。
実験結果から、AMBERは、シーケンスタグ付けで1.1平均F1スコア、XLMR-大規模モデル上での検索で27.3平均精度を得ることがわかった。
論文 参考訳(メタデータ) (2020-10-15T18:34:13Z) - Improving Massively Multilingual Neural Machine Translation and
Zero-Shot Translation [81.7786241489002]
ニューラルネットワーク翻訳(NMT)の多言語モデルは理論的には魅力的であるが、しばしばバイリンガルモデルに劣る。
我々は,多言語NMTが言語ペアをサポートするためにより強力なモデリング能力を必要とすることを論じる。
未知のトレーニング言語ペアの翻訳を強制するために,ランダムなオンライン翻訳を提案する。
論文 参考訳(メタデータ) (2020-04-24T17:21:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。