論文の概要: Low-resource Languages: A Review of Past Work and Future Challenges
- arxiv url: http://arxiv.org/abs/2006.07264v1
- Date: Fri, 12 Jun 2020 15:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 04:19:08.878706
- Title: Low-resource Languages: A Review of Past Work and Future Challenges
- Title(参考訳): 低リソース言語: 過去の作業と今後の課題
- Authors: Alexandre Magueresse, Vincent Carles, Evan Heetderks
- Abstract要約: NLPの現在の問題は、教師付きデータやネイティブスピーカーの数、専門家数といった、有用なトレーニング属性が欠けている低リソース言語のマッサージと処理である。
本稿は、この問題の解決に向けたこれまでの画期的な成果を簡潔に要約し、今後の研究の方向性の文脈における潜在的な改善について分析する。
- 参考スコア(独自算出の注目度): 68.8204255655161
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A current problem in NLP is massaging and processing low-resource languages
which lack useful training attributes such as supervised data, number of native
speakers or experts, etc. This review paper concisely summarizes previous
groundbreaking achievements made towards resolving this problem, and analyzes
potential improvements in the context of the overall future research direction.
- Abstract(参考訳): NLPの現在の問題は、教師付きデータやネイティブスピーカーの数、専門家数といった有用なトレーニング属性が欠けている低リソース言語のマッサージと処理である。
本稿では,この問題の解決に向けたこれまでの画期的な成果を簡潔に要約し,今後の研究方向性の文脈における潜在的な改善について分析する。
関連論文リスト
- Order Matters in the Presence of Dataset Imbalance for Multilingual
Learning [53.74649778447903]
本稿では,高リソースタスクの事前学習をシンプルかつ効果的に行う方法と,高リソースタスクと低リソースタスクの混合による微調整について述べる。
ニューラルネットワーク翻訳(NMT)と多言語言語モデリングの改善について述べる。
論文 参考訳(メタデータ) (2023-12-11T05:46:57Z) - A Comprehensive Survey on Deep Learning for Relation Extraction: Recent
Advances and New Frontiers [64.30476057955852]
関係抽出(RE)は、非構造化テキストからエンティティ間の関係を識別する。
ディープニューラルネットワークはREの分野を支配しており、顕著な進歩を遂げている。
この調査は、リアルタイムREシステムの課題に取り組む研究者の協力活動を促進することが期待されている。
論文 参考訳(メタデータ) (2023-06-03T08:39:25Z) - Out-of-Distribution Generalization in Text Classification: Past,
Present, and Future [30.581612475530974]
自然言語処理(NLP)における機械学習(ML)システムは、アウト・オブ・ディストリビューション(OOD)データへの一般化において重大な課題に直面している。
このことは、NLPモデルの堅牢性とその高い精度に関する重要な疑問を提起する。
本稿では,近年の進歩,方法,評価について概観する。
論文 参考訳(メタデータ) (2023-05-23T14:26:11Z) - A Survey on Knowledge-Enhanced Pre-trained Language Models [8.54551743144995]
自然言語処理(NLP)は、事前学習言語モデル(PLM)によって革新された。
ほぼすべてのNLPタスクに新しいレコードを設定するが、PLMは、解釈可能性の低さ、推論能力の弱さ、下流タスクに適用する場合に多くの高価な注釈付きデータが必要であるなど、多くの課題に直面している。
外部知識を PLM に統合することにより、textitunderline-Knowledge-underline が強化された underlinePre-trained underlineLanguage underlineModels
論文 参考訳(メタデータ) (2022-12-27T09:54:14Z) - Efficient Methods for Natural Language Processing: A Survey [76.34572727185896]
本研究は, 効率的なNLPにおける現在の手法と知見を合成し, 関連づけるものである。
我々は,限られた資源下でNLPを実施するためのガイダンスと,より効率的な手法を開発するための有望な研究方向性の両立を目指す。
論文 参考訳(メタデータ) (2022-08-31T20:32:35Z) - Survey of Low-Resource Machine Translation [65.52755521004794]
現在、世界中で約7000の言語が話されており、ほとんど全ての言語ペアは機械翻訳モデルのトレーニングのための重要なリソースを欠いている。
翻訳データが少ない場合に有用な翻訳モデルを作成するという課題に対処する研究への関心が高まっている。
論文 参考訳(メタデータ) (2021-09-01T16:57:58Z) - QA Dataset Explosion: A Taxonomy of NLP Resources for Question Answering
and Reading Comprehension [41.6087902739702]
この調査は、これまでで最大の調査である。
我々は、現在のリソースの様々なフォーマットとドメインの概要を述べ、将来の作業における現在のラグナを強調します。
また、英語に対する過剰な焦点付けの影響についても論じ、他の言語や多言語リソースに対する現在のモノリンガルリソースについて調査する。
論文 参考訳(メタデータ) (2021-07-27T10:09:13Z) - A Survey of Data Augmentation Approaches for NLP [12.606206831969262]
データ拡張は最近、低リソースドメインでの作業の増加、新しいタスク、大規模ニューラルネットワークの人気により、NLPへの関心が高まっている。
この最近の騒動にもかかわらず、この領域は、おそらく言語データの離散的な性質によって生じる課題のために、まだ比較的未調査です。
文献を構造化した方法で要約することにより,NLPのデータ拡張に関する包括的かつ統一的な調査を行う。
論文 参考訳(メタデータ) (2021-05-07T06:03:45Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z) - A Survey of the State of Explainable AI for Natural Language Processing [16.660110121500125]
本稿では, 説明可能なAI(XAI)の現状について概観する。
本稿では,説明の主分類について論じるとともに,説明が到着して視覚化される様々な方法について論じる。
我々は、NLPモデル予測のための説明を生成するために現在利用可能な操作および説明可能性技術について詳述し、コミュニティにおけるモデル開発者のためのリソースとして機能する。
論文 参考訳(メタデータ) (2020-10-01T22:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。