論文の概要: Characterization of effects of transfer learning across domains and
languages
- arxiv url: http://arxiv.org/abs/2210.01091v1
- Date: Mon, 3 Oct 2022 17:17:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 15:17:27.933441
- Title: Characterization of effects of transfer learning across domains and
languages
- Title(参考訳): ドメインと言語間の伝達学習の効果のキャラクタリゼーション
- Authors: Sovesh Mohapatra
- Abstract要約: 事前学習されたニューラルネットワークモデルからのトランスファーラーニング(TL)は、長年にわたって強力なテクニックとして現れてきた。
本研究では,TLが3つの自然言語処理(NLP)タスクに対して,一般的な事前学習モデルの性能にどのように影響するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With ever-expanding datasets of domains, tasks and languages, transfer
learning (TL) from pre-trained neural language models has emerged as a powerful
technique over the years. Many pieces of research have shown the effectiveness
of transfer learning across different domains and tasks. However, there remains
uncertainty around when a transfer will lead to positive or negative impacts on
performance of the model. To understand the uncertainty, we investigate how TL
affects the performance of popular pre-trained models like BERT, RoBERTa and
XLNet over three natural language processing (NLP) tasks. We believe this work
will inform about specifics on when and what to transfer related to domain,
multi-lingual dataset and various NLP tasks.
- Abstract(参考訳): ドメインやタスク、言語などのデータセットが拡大するにつれ、トレーニング済みのニューラルネットワークモデルからのトランスファー学習(tl)が、長年にわたって強力な技術として登場してきた。
多くの研究で、異なるドメインやタスク間でのトランスファー学習の有効性が示されている。
しかし、転送がモデルの性能に正または負の影響をもたらすかどうかについては不確実性がある。
この不確実性を理解するために,3つの自然言語処理(NLP)タスクに対して,BERT,RoBERTa,XLNetなどの事前学習モデルの性能にTLがどう影響するかを検討する。
この研究は、ドメイン、多言語データセット、さまざまなnlpタスクに関連する転送のタイミングと内容について、具体的な情報を提供すると思います。
関連論文リスト
- Defining Boundaries: The Impact of Domain Specification on Cross-Language and Cross-Domain Transfer in Machine Translation [0.44601285466405083]
言語間変換学習はニューラルマシン翻訳(NMT)に有望なソリューションを提供する
本稿では,ドメイン仕様と言語要因が伝達効率に与える影響に焦点を当てる。
ポルトガル語、イタリア語、フランス語、チェコ語、ポーランド語、ギリシャ語など、複数の対象言語を評価します。
論文 参考訳(メタデータ) (2024-08-21T18:28:48Z) - Subspace Chronicles: How Linguistic Information Emerges, Shifts and
Interacts during Language Model Training [56.74440457571821]
我々は、構文、意味論、推論を含むタスクを、200万の事前学習ステップと5つのシードで分析する。
タスクや時間にまたがる重要な学習フェーズを特定し、その間にサブスペースが出現し、情報を共有し、後に専門化するために混乱する。
この結果は,モデル解釈可能性,マルチタスク学習,限られたデータからの学習に影響を及ぼす。
論文 参考訳(メタデータ) (2023-10-25T09:09:55Z) - Analysing Cross-Lingual Transfer in Low-Resourced African Named Entity
Recognition [0.10641561702689348]
低リソース言語10言語間の言語間移動学習の特性について検討する。
一つの言語でうまく機能するモデルは、他の言語への一般化を犠牲にして、しばしばそうする。
ソースとターゲットデータセット間で重複するデータの量は、言語間の地理的あるいは遺伝的距離よりも、転送性能の予測器として優れている。
論文 参考訳(メタデータ) (2023-09-11T08:56:47Z) - Cross-lingual Transferring of Pre-trained Contextualized Language Models [73.97131976850424]
本稿では,PRLMのための新しい言語間モデル転送フレームワークTreLMを提案する。
シンボルの順序と言語間のシーケンス長の差に対処するため,中間的なTRILayer構造を提案する。
提案手法は,スクラッチから学習した言語モデルに対して,性能と効率の両面で,限られたデータで著しく優れることを示す。
論文 参考訳(メタデータ) (2021-07-27T06:51:13Z) - What is being transferred in transfer learning? [51.6991244438545]
事前訓練した重量からトレーニングを行うと、モデルは損失景観の同じ流域に留まることを示す。
事前学習した重みからトレーニングする場合、モデルは損失ランドスケープの同じ流域に留まり、そのようなモデルの異なるインスタンスは特徴空間と類似しており、パラメータ空間は近接している。
論文 参考訳(メタデータ) (2020-08-26T17:23:40Z) - Exploring and Predicting Transferability across NLP Tasks [115.6278033699853]
本研究では,33のNLPタスク間の伝達可能性について検討した。
以上の結果から,転帰学習は従来考えられていたよりも有益であることが示唆された。
また,特定の対象タスクに対して最も転送可能なソースタスクを予測するために使用できるタスク埋め込みも開発した。
論文 参考訳(メタデータ) (2020-05-02T09:39:36Z) - From Zero to Hero: On the Limitations of Zero-Shot Cross-Lingual
Transfer with Multilingual Transformers [62.637055980148816]
言語モデリングの目的によって事前訓練された多言語トランスフォーマーは、NLPの事実上のデフォルト転送パラダイムとなっている。
膨大な多言語変換器による言語間変換は,リソースリーンシナリオや遠方言語では著しく効果が低いことを示す。
論文 参考訳(メタデータ) (2020-05-01T22:04:58Z) - Inter- and Intra-domain Knowledge Transfer for Related Tasks in Deep
Character Recognition [2.320417845168326]
ImageNetデータセットでディープニューラルネットワークを事前トレーニングすることは、ディープラーニングモデルをトレーニングするための一般的なプラクティスである。
1つのタスクで事前トレーニングを行い、新しいタスクで再トレーニングするテクニックは、トランスファーラーニング(transfer learning)と呼ばれる。
本稿では,文字認識タスクにおけるDeep Transfer Learningの有効性について分析する。
論文 参考訳(メタデータ) (2020-01-02T14:18:25Z) - Exploring the Limits of Transfer Learning with a Unified Text-to-Text
Transformer [64.22926988297685]
下流タスクで微調整される前に、まずデータリッチタスクでモデルが事前訓練されるトランスファーラーニングは、自然言語処理(NLP)において強力な手法として登場した。
本稿では,すべてのテキストベースの言語問題をテキスト・トゥ・テキスト・フォーマットに変換する統一フレームワークにより,NLPのためのトランスファー学習手法を導入する状況について検討する。
論文 参考訳(メタデータ) (2019-10-23T17:37:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。