論文の概要: Transfer Learning for Multi-lingual Tasks -- a Survey
- arxiv url: http://arxiv.org/abs/2110.02052v1
- Date: Sat, 28 Aug 2021 20:29:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-16 22:58:26.960308
- Title: Transfer Learning for Multi-lingual Tasks -- a Survey
- Title(参考訳): 複数言語タスクのためのトランスファー学習--サーベイ
- Authors: Amir Reza Jafari, Behnam Heidary, Reza Farahbakhsh, Mostafa Salehi,
Mahdi Jalili
- Abstract要約: 自然言語処理(NLP)におけるクロス言語の内容と多言語主義はホットトピックである。
本稿では,多言語タスクにおける伝達学習技術に着目し,既存の文献の概要を概観する。
- 参考スコア(独自算出の注目度): 11.596820548674266
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: These days different platforms such as social media provide their clients
from different backgrounds and languages the possibility to connect and
exchange information. It is not surprising anymore to see comments from
different languages in posts published by international celebrities or data
providers. In this era, understanding cross languages content and
multilingualism in natural language processing (NLP) are hot topics, and
multiple efforts have tried to leverage existing technologies in NLP to tackle
this challenging research problem. In this survey, we provide a comprehensive
overview of the existing literature with a focus on transfer learning
techniques in multilingual tasks. We also identify potential opportunities for
further research in this domain.
- Abstract(参考訳): 最近では、ソーシャルメディアのようなさまざまなプラットフォームが、異なるバックグラウンドや言語からクライアントに情報を接続し交換する機会を提供している。
国際的有名人やデータプロバイダが投稿した投稿で、さまざまな言語からのコメントを見ることは、もはや驚きではない。
この時代には、自然言語処理(NLP)におけるクロス言語の内容と多言語主義の理解がホットな話題であり、この挑戦的な研究課題に取り組むために、NLPの既存の技術を活用しようと試みている。
本稿では,多言語タスクにおけるトランスファー学習技術に着目し,既存の文献の概要について概観する。
我々はまた、この領域でさらなる研究の機会を見出す。
関連論文リスト
- A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [48.314619377988436]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Multilingual Evaluation of Semantic Textual Relatedness [0.0]
意味的テクスト関係性(STR)は、言語的要素や話題、感情、視点といった非言語的要素を考慮して、表面的な単語重複を越えている。
以前のNLP研究は主に英語に焦点を合わせており、言語間の適用性を制限している。
Marathi、Hindi、スペイン語、英語でSTRを探索し、情報検索や機械翻訳などの可能性を解き放つ。
論文 参考訳(メタデータ) (2024-04-13T17:16:03Z) - Understanding Cross-Lingual Alignment -- A Survey [52.572071017877704]
言語間アライメントは多言語言語モデルにおける言語間の表現の有意義な類似性である。
本研究は,言語間アライメントの向上,手法の分類,分野全体からの洞察の要約といった手法の文献を調査する。
論文 参考訳(メタデータ) (2024-04-09T11:39:53Z) - Multilingual Large Language Model: A Survey of Resources, Taxonomy and Frontiers [81.47046536073682]
本稿では,MLLM(Multilingual Large Language Model)文学における最近の進歩と新たなトレンドを要約する一貫した視点を提示する。
私たちの研究がコミュニティに迅速なアクセスを提供し、MLLMにおける画期的な研究を促進することを願っています。
論文 参考訳(メタデータ) (2024-04-07T11:52:44Z) - A Survey on Multilingual Large Language Models: Corpora, Alignment, and Bias [5.104497013562654]
本稿では,MLLMの進化,鍵技術,多言語能力について概説する。
我々は、MLLMのトレーニングや下流タスクに適した多言語データセットに広く利用されている多言語コーパスについて検討する。
本稿では,MLLMのカテゴリと評価指標を含むバイアスについて論じ,既存のデバイアス手法を要約する。
論文 参考訳(メタデータ) (2024-04-01T05:13:56Z) - Cross-lingual Offensive Language Detection: A Systematic Review of
Datasets, Transfer Approaches and Challenges [10.079109184645478]
本調査は,ソーシャルメディアにおける攻撃的言語検出におけるクロスリンガル・トランスファー・ラーニング手法の体系的,包括的調査である。
我々の研究は、この領域における言語横断シナリオにのみ焦点をあてる最初の全体論的な概要である。
論文 参考訳(メタデータ) (2024-01-17T14:44:27Z) - Multilingual Multimodality: A Taxonomical Survey of Datasets,
Techniques, Challenges and Opportunities [10.721189858694396]
マルチ言語とマルチモーダル(MultiX)ストリームの統合について検討する。
我々は、並列アノテーションで研究された言語、金または銀のデータを調べ、これらのモダリティと言語がモデリングにおいてどのように相互作用するかを理解する。
モデリングアプローチの長所と短所とともに、どのシナリオを確実に使用できるのかをよりよく理解するために、モデリングアプローチについて説明します。
論文 参考訳(メタデータ) (2022-10-30T21:46:01Z) - Cross-lingual Lifelong Learning [53.06904052325966]
本稿では,言語間連続学習(CCL)の評価パラダイムを提案する。
マルチリンガルなシーケンシャルな学習を特に難しいものにするための洞察を提供する。
この分析の意味は、異なる言語間連続学習のデシダータを測り、バランスをとる方法のレシピを含む。
論文 参考訳(メタデータ) (2022-05-23T09:25:43Z) - Towards Best Practices for Training Multilingual Dense Retrieval Models [54.91016739123398]
我々は,このような設計を用いて,多種多様言語における単言語検索の課題に焦点をあてる。
本研究は多言語高密度検索モデルのトレーニングのための「ベストプラクティス」ガイドとして組織されている。
論文 参考訳(メタデータ) (2022-04-05T17:12:53Z) - A Study of Cross-Lingual Ability and Language-specific Information in
Multilingual BERT [60.9051207862378]
Multilingual BERTは、言語間転送タスクで驚くほどうまく機能します。
データサイズとコンテキストウィンドウサイズは、転送可能性にとって重要な要素です。
多言語BERTの言語間能力を改善するために、計算的に安価だが効果的なアプローチがある。
論文 参考訳(メタデータ) (2020-04-20T11:13:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。