論文の概要: In-Domain African Languages Translation Using LLMs and Multi-armed Bandits
- arxiv url: http://arxiv.org/abs/2505.15069v1
- Date: Wed, 21 May 2025 03:33:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-22 15:42:58.8474
- Title: In-Domain African Languages Translation Using LLMs and Multi-armed Bandits
- Title(参考訳): LLMとMulti-armed Banditsを用いた国内アフリカの言語翻訳
- Authors: Pratik Rakesh Singh, Kritarth Prasad, Mohammadi Zaki, Pankaj Wasnik,
- Abstract要約: 本稿では,帯域幅に基づくアルゴリズムを用いて,与えられた領域に対して最適なNMTモデルを選択する方法を検討する。
提案手法は,信頼性の高い最適モデル選択を容易にすることにより,資源制約を効果的に解決する。
- 参考スコア(独自算出の注目度): 3.2498796510544636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Machine Translation (NMT) systems face significant challenges when working with low-resource languages, particularly in domain adaptation tasks. These difficulties arise due to limited training data and suboptimal model generalization, As a result, selecting an optimal model for translation is crucial for achieving strong performance on in-domain data, particularly in scenarios where fine-tuning is not feasible or practical. In this paper, we investigate strategies for selecting the most suitable NMT model for a given domain using bandit-based algorithms, including Upper Confidence Bound, Linear UCB, Neural Linear Bandit, and Thompson Sampling. Our method effectively addresses the resource constraints by facilitating optimal model selection with high confidence. We evaluate the approach across three African languages and domains, demonstrating its robustness and effectiveness in both scenarios where target data is available and where it is absent.
- Abstract(参考訳): ニューラルネットワーク翻訳(NMT)システムは、低リソース言語、特にドメイン適応タスクを扱う場合、重大な課題に直面している。
結果として、ドメイン内のデータ、特に微調整が実現不可能で実用的でないシナリオにおいて、翻訳のための最適なモデルを選択することが、ドメイン内のデータに対して強力なパフォーマンスを達成するために不可欠である。
本稿では,アッパー信頼境界,線形 UCB,ニューラル線形帯域,トンプソンサンプリングなどの帯域ベースアルゴリズムを用いて,与えられたドメインに対して最適なNMTモデルを選択する方法を検討する。
提案手法は,信頼性の高い最適モデル選択を容易にすることにより,資源制約を効果的に解決する。
3つのアフリカ言語とドメインにわたるアプローチを評価し、ターゲットデータが利用可能で、どこに存在しないかというシナリオにおいて、その堅牢性と有効性を示す。
関連論文リスト
- Sample Efficient Preference Alignment in LLMs via Active Exploration [63.84454768573154]
良い政策を最も効率的に特定するために、人間のフィードバックを得るコンテキストをしばしば選択できるという事実を活用します。
本稿では,データを効率的に選択する能動的探索アルゴリズムを提案する。
提案手法は,複数の言語モデルと4つの実世界のデータセットに対する人間の嗜好の限られたサンプルを用いて,ベースラインよりも優れる。
論文 参考訳(メタデータ) (2023-12-01T00:54:02Z) - A Systematic Analysis of Vocabulary and BPE Settings for Optimal
Fine-tuning of NMT: A Case Study of In-domain Translation [0.0]
語彙とSWトークン化の選択は、トレーニングとNMTモデルの微調整の両方に重大な影響を与える。
本研究では、SWトークン化と語彙生成のための異なる戦略と、ドメイン固有モデルを微調整するための最適な設定を明らかにするための究極の目標を比較する。
論文 参考訳(メタデータ) (2023-03-01T18:26:47Z) - Improving Pre-trained Language Model Fine-tuning with Noise Stability
Regularization [94.4409074435894]
本稿では,LNSR(Layerwise Noise Stability Regularization)という,新規かつ効果的な微調整フレームワークを提案する。
具体的には、標準ガウス雑音を注入し、微調整モデルの隠れ表現を正規化することを提案する。
提案手法は,L2-SP,Mixout,SMARTなど他の最先端アルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-12T04:42:49Z) - Distributionally Robust Multilingual Machine Translation [94.51866646879337]
本稿では,分散的ロバストな最適化に基づくMNMT(Multilingual Neural Machine Translation)の新しい学習目標を提案する。
この目的を,反復的最適応答方式を用いて,大規模翻訳コーパスに対して実用的に最適化する方法を示す。
本手法は,多対一の翻訳設定と多対多の翻訳設定の両方において,平均と言語毎のパフォーマンスにおいて,強いベースライン法より一貫して優れる。
論文 参考訳(メタデータ) (2021-09-09T03:48:35Z) - Unsupervised Neural Machine Translation for Low-Resource Domains via
Meta-Learning [27.86606560170401]
unsupervised neural machine translation (UNMT) のための新しいメタ学習アルゴリズムを提案する。
私たちは、少量のトレーニングデータだけを利用して、別のドメインに適応するようにモデルを訓練します。
我々のモデルは、最大2-4 BLEUスコアの転送学習に基づくアプローチを超越している。
論文 参考訳(メタデータ) (2020-10-18T17:54:13Z) - Improving Context Modeling in Neural Topic Segmentation [18.92944038749279]
階層型アテンションBiLSTMネットワークに基づくセグメンタを改良し、コンテキストをモデル化する。
最適化されたセグメンタは、3つのデータセットでトレーニングとテストを行った場合、SOTAアプローチよりも優れています。
論文 参考訳(メタデータ) (2020-10-07T03:40:49Z) - Dynamic Data Selection and Weighting for Iterative Back-Translation [116.14378571769045]
本稿では,反復的バックトランスレーションモデルのためのカリキュラム学習戦略を提案する。
我々は、ドメイン適応、低リソース、高リソースMT設定に関するモデルを評価する。
実験の結果,提案手法は競争基準値よりも最大1.8 BLEU点の改善を達成できた。
論文 参考訳(メタデータ) (2020-04-07T19:49:58Z) - A Simple Baseline to Semi-Supervised Domain Adaptation for Machine
Translation [73.3550140511458]
State-of-the-art Neural Machine Translation (NMT)システムは、データハングリーであり、教師付きデータを持たない新しいドメインではパフォーマンスが良くない。
NMTの半教師付きドメイン適応シナリオに対する単純だが効果のあるアプローチを提案する。
このアプローチは、言語モデリング、バックトランスレーション、教師付き翻訳の3つのトレーニング目標を通じて、TransformerベースのNMTモデルを反復的にトレーニングする。
論文 参考訳(メタデータ) (2020-01-22T16:42:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。