論文の概要: Multilingual and cross-lingual document classification: A meta-learning
approach
- arxiv url: http://arxiv.org/abs/2101.11302v1
- Date: Wed, 27 Jan 2021 10:22:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-02 05:20:53.740144
- Title: Multilingual and cross-lingual document classification: A meta-learning
approach
- Title(参考訳): 多言語および多言語文書分類:メタラーニングアプローチ
- Authors: Niels van der Heijden, Helen Yannakoudakis, Pushkar Mishra, Ekaterina
Shutova
- Abstract要約: 本稿では,文書分類におけるメタラーニング手法を提案する。
提案手法の有効性は2つの設定で示される:少数ショット,未確認言語への言語間適応,多言語共同訓練である。
- 参考スコア(独自算出の注目度): 24.66829920826166
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The great majority of languages in the world are considered under-resourced
for the successful application of deep learning methods. In this work, we
propose a meta-learning approach to document classification in limited-resource
setting and demonstrate its effectiveness in two different settings: few-shot,
cross-lingual adaptation to previously unseen languages; and multilingual joint
training when limited target-language data is available during training. We
conduct a systematic comparison of several meta-learning methods, investigate
multiple settings in terms of data availability and show that meta-learning
thrives in settings with a heterogeneous task distribution. We propose a
simple, yet effective adjustment to existing meta-learning methods which allows
for better and more stable learning, and set a new state of the art on several
languages while performing on-par on others, using only a small amount of
labeled data.
- Abstract(参考訳): 世界の言語の大部分は、ディープラーニングの手法をうまく適用するためのリソース不足と見なされています。
本研究では、限られたリソース設定における文書分類のためのメタラーニングアプローチを提案し、その効果を2つの異なる設定で実証する。
我々は,複数のメタ学習手法を体系的に比較し,データ可用性の観点から複数の設定を調査し,不均一なタスク分布を持つ環境下でメタ学習が成長することを示す。
そこで我々は,従来のメタラーニング手法をシンプルかつ効果的に調整し,より優れた安定した学習を可能にするとともに,少数のラベル付きデータのみを用いて,複数の言語に新たな技術状況を設定することを提案する。
関連論文リスト
- MetaXLR -- Mixed Language Meta Representation Transformation for
Low-resource Cross-lingual Learning based on Multi-Armed Bandit [0.0]
データ駆動方式で選択した複数のソース言語を利用する拡張アプローチを提案する。
我々は,同じ量のデータを使用しながら,非常に低リソース言語に対するNERタスクにおける技術結果の状態を達成した。
論文 参考訳(メタデータ) (2023-05-31T18:22:33Z) - On Efficiently Acquiring Annotations for Multilingual Models [12.304046317362792]
一つのモデルを用いて複数の言語にまたがる共同学習の戦略は、上記の選択肢よりもかなり優れていることを示す。
この単純なアプローチにより、アノテーションの予算を不確実な言語に問い合わせることによって、モデルがデータ効率を向上できることを示す。
論文 参考訳(メタデータ) (2022-04-03T07:42:13Z) - Exploring Teacher-Student Learning Approach for Multi-lingual
Speech-to-Intent Classification [73.5497360800395]
複数の言語をサポートするエンドツーエンドシステムを開発した。
我々は、事前訓練された多言語自然言語処理モデルからの知識を利用する。
論文 参考訳(メタデータ) (2021-09-28T04:43:11Z) - Meta Navigator: Search for a Good Adaptation Policy for Few-shot
Learning [113.05118113697111]
少ないショット学習は、ラベル付きデータしか持たない新しいタスクに、以前のタスクから学んだ知識を適応させることを目的としている。
少数ショット学習に関する研究文献は、大きな多様性を示し、異なるアルゴリズムは、しばしば異なる少数ショット学習シナリオで優れている。
本稿では,メタナビゲータ(Meta Navigator)について紹介する。
論文 参考訳(メタデータ) (2021-09-13T07:20:01Z) - MetaXL: Meta Representation Transformation for Low-resource
Cross-lingual Learning [91.5426763812547]
言語間移動学習は低リソース言語のための機能的NLPシステムを構築するための最も効果的な方法の1つである。
MetaXLは、メタラーニングベースのフレームワークで、表現を補助言語からターゲット言語にジャッジに変換することを学ぶ。
論文 参考訳(メタデータ) (2021-04-16T06:15:52Z) - Multilingual Transfer Learning for Code-Switched Language and Speech
Neural Modeling [12.497781134446898]
本稿では,言語非依存なマルチタスク学習手法を提案することにより,言語理論のデータ不足と限界に対処する。
まず,メタラーニングに基づくメタトランスファー学習を提案する。そこでは,高音源単言語音声データから,コードスイッチング領域への情報抽出を行う。
第2に,他の言語で学習した有用な知識を得ることにより,コードスイッチングデータを効果的に表現するための,多言語メタエム手法を提案する。
第3に,言語モデルへの伝達学習戦略として構文情報を統合するために,マルチタスク学習を導入する。
論文 参考訳(メタデータ) (2021-04-13T14:49:26Z) - Meta-learning for fast cross-lingual adaptation in dependency parsing [16.716440467483096]
言語間依存関係解析のタスクにモデル非依存のメタラーニングを適用する。
事前学習によるメタ学習は,言語伝達の性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2021-04-10T11:10:16Z) - Are Multilingual Models Effective in Code-Switching? [57.78477547424949]
多言語モデルの有効性を検討し,複合言語設定の能力と適応性について検討する。
この結果から,事前学習した多言語モデルでは,コードスイッチングにおける高品質な表現が必ずしも保証されないことが示唆された。
論文 参考訳(メタデータ) (2021-03-24T16:20:02Z) - UNKs Everywhere: Adapting Multilingual Language Models to New Scripts [103.79021395138423]
マルチリンガルBERT(mBERT)やXLM-Rのような多言語言語モデルは、様々なNLPタスクに対して最先端の言語間転送性能を提供する。
キャパシティの制限と事前トレーニングデータの大きな差のため、リソース豊富な言語とリソースを対象とする言語には大きなパフォーマンスギャップがある。
本稿では,事前学習した多言語モデルの低リソース言語や未知のスクリプトへの高速かつ効果的な適応を可能にする新しいデータ効率手法を提案する。
論文 参考訳(メタデータ) (2020-12-31T11:37:28Z) - Meta-Transfer Learning for Code-Switched Speech Recognition [72.84247387728999]
低リソース環境下でのコード切替音声認識システムにおける学習を伝達するメタトランスファー学習法を提案する。
本モデルでは,コードスイッチングデータに最適化を条件付けることにより,個々の言語を識別し,混合言語音声をよりよく認識できるように変換する。
論文 参考訳(メタデータ) (2020-04-29T14:27:19Z) - Zero-Shot Cross-Lingual Transfer with Meta Learning [45.29398184889296]
英語以外の言語ではほとんど、あるいは全くデータがない場合に、複数の言語でのトレーニングモデルの設定を同時に検討する。
メタラーニングを用いて、この挑戦的な設定にアプローチできることが示される。
我々は、標準教師付きゼロショットのクロスランガルと、異なる自然言語理解タスクのための数ショットのクロスランガル設定を用いて実験を行った。
論文 参考訳(メタデータ) (2020-03-05T16:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。