論文の概要: Adapting to the Low-Resource Double-Bind: Investigating Low-Compute
Methods on Low-Resource African Languages
- arxiv url: http://arxiv.org/abs/2303.16985v1
- Date: Wed, 29 Mar 2023 19:25:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-31 15:22:03.374499
- Title: Adapting to the Low-Resource Double-Bind: Investigating Low-Compute
Methods on Low-Resource African Languages
- Title(参考訳): 低リソースダブルビンドへの適応--低リソースアフリカ言語における低計算方法の検討
- Authors: Colin Leong, Herumb Shandilya, Bonaventure F. P. Dossou, Atnafu
Lambebo Tonja, Joel Mathew, Abdul-Hakeem Omotayo, Oreen Yousuf, Zainab
Akinjobi, Chris Chinenye Emezue, Shamsudeen Muhammad, Steven Kolawole,
Younwoo Choi, Tosin Adewumi
- Abstract要約: アフリカの言語のデータ不足問題に追加された高い計算資源へのアクセス。
低リソースのアフリカNLPに対して,言語アダプタをコスト効率の良いアプローチとして評価する。
これにより、言語アダプタの能力に関するさらなる実験と探索の扉が開ける。
- 参考スコア(独自算出の注目度): 0.6833698896122186
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many natural language processing (NLP) tasks make use of massively
pre-trained language models, which are computationally expensive. However,
access to high computational resources added to the issue of data scarcity of
African languages constitutes a real barrier to research experiments on these
languages. In this work, we explore the applicability of low-compute approaches
such as language adapters in the context of this low-resource double-bind. We
intend to answer the following question: do language adapters allow those who
are doubly bound by data and compute to practically build useful models?
Through fine-tuning experiments on African languages, we evaluate their
effectiveness as cost-effective approaches to low-resource African NLP. Using
solely free compute resources, our results show that language adapters achieve
comparable performances to massive pre-trained language models which are heavy
on computational resources. This opens the door to further experimentation and
exploration on full-extent of language adapters capacities.
- Abstract(参考訳): 多くの自然言語処理(NLP)タスクは、計算コストのかかる大量の事前訓練された言語モデルを使用する。
しかし、アフリカの言語のデータ不足問題に付加される高い計算資源へのアクセスは、これらの言語に関する実験の真の障壁となっている。
本研究では,この低リソース二重結合の文脈において,言語アダプタなどの低スループットアプローチの適用性について検討する。
言語アダプタは、データによって二重に拘束され、計算によって有用なモデルを構築することができるか?
アフリカの言語に関する微調整実験を通じて,低リソースのアフリカNLPに対するコスト効率なアプローチとしての有効性を評価する。
自由計算資源のみを用いることで,計算資源に重きを置く膨大な事前学習言語モデルに対して,言語アダプタが同等の性能を達成できることを示す。
これにより、言語アダプタの能力に関するさらなる実験と探索の扉が開ける。
関連論文リスト
- Synthetic Data Generation for Culturally Nuanced Commonsense Reasoning in Low-Resource Languages [5.376127198656944]
1) LLM支援データセット生成, (2) 機械翻訳, (3) ネイティブ話者による人書きデータから, 文化的に曖昧なストーリー理解データセットを構築するための3つのデータセット作成戦略を比較した。
以上の結果から,LLMによるデータ生成は機械翻訳より優れていることが示唆された。
論文 参考訳(メタデータ) (2025-02-18T15:14:58Z) - Enhancing Code Generation for Low-Resource Languages: No Silver Bullet [55.39571645315926]
大規模言語モデル(LLM)は、プログラミング言語の構文、意味論、使用パターンを学ぶために、大規模で多様なデータセットに依存している。
低リソース言語では、そのようなデータの限られた可用性は、モデルを効果的に一般化する能力を損なう。
本稿では,低リソース言語におけるLLMの性能向上のためのいくつかの手法の有効性を実証研究する。
論文 参考訳(メタデータ) (2025-01-31T12:23:28Z) - Efficient Continual Pre-training of LLMs for Low-resource Languages [45.44796295841526]
大規模コーパスからテキストのサブセットを選択するアルゴリズムを開発した。
さらなる改良を求めて,LLM語彙に含まれるトークンを選択する新しいアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-12-13T16:13:35Z) - Enhancing Multilingual Capabilities of Large Language Models through
Self-Distillation from Resource-Rich Languages [60.162717568496355]
大規模言語モデル(LLM)は多言語コーパスで事前訓練されている。
彼らのパフォーマンスは、いくつかのリソース豊富な言語と比較して、ほとんどの言語でまだ遅れています。
論文 参考訳(メタデータ) (2024-02-19T15:07:32Z) - YAYI 2: Multilingual Open-Source Large Language Models [53.92832054643197]
我々は,300億のパラメータを持つベースモデルとチャットモデルを含むYAYI 2を提案する。
YAYI 2は、トレーニング済みのデータ処理パイプラインによってフィルタされた2.65兆のトークンを含む多言語コーパス上で、スクラッチから事前トレーニングされる。
ベースモデルは、数百万の指示による教師付き微調整と、人間のフィードバックからの強化学習によって、人間の価値と整合する。
論文 参考訳(メタデータ) (2023-12-22T17:34:47Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z) - Soft Language Clustering for Multilingual Model Pre-training [57.18058739931463]
本稿では,インスタンスを条件付きで符号化するためのフレキシブルガイダンスとして,コンテキスト的にプロンプトを検索するXLM-Pを提案する。
我々のXLM-Pは、(1)言語間における言語不変および言語固有知識の軽量なモデリングを可能にし、(2)他の多言語事前学習手法との容易な統合を可能にする。
論文 参考訳(メタデータ) (2023-06-13T08:08:08Z) - A Survey on Low-Resource Neural Machine Translation [106.51056217748388]
我々は、関連する作品を、使用した補助データに基づいて3つのカテゴリに分類する。
私たちの調査は、研究者がこの分野をよりよく理解し、より良いアルゴリズムを設計するきっかけになることを期待しています。
論文 参考訳(メタデータ) (2021-07-09T06:26:38Z) - Low-Resource Language Modelling of South African Languages [6.805575417034369]
南アフリカの低資源言語におけるボカブラリ言語モデルの性能を評価する。
本研究では,n-gramモデル,feedforwardニューラルネットワーク,recurrent neural network (rnn),transformerの異種を小規模データセット上で評価する。
全体的に、よく規則化されたRNNは、2つのisiZuluと1つのSepediデータセットで最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2021-04-01T21:27:27Z) - Low-Resource Machine Translation for Low-Resource Languages: Leveraging
Comparable Data, Code-Switching and Compute Resources [4.119597443825115]
我々は,真の低資源言語に対する教師なしニューラルマシン翻訳(nmt)の実証研究を行っている。
バイリンガル辞書を用いた類似のデータマイニングと、モデルのトレーニングに控えめな計算リソースを追加することで、パフォーマンスが大幅に向上することを示す。
私たちの仕事は、低リソースNMTにおける異なる控えめな計算資源の影響を定量的に示す最初のものです。
論文 参考訳(メタデータ) (2021-03-24T15:40:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。