論文の概要: Multilingual Prompt Engineering in Large Language Models: A Survey Across NLP Tasks
- arxiv url: http://arxiv.org/abs/2505.11665v1
- Date: Fri, 16 May 2025 19:59:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.770468
- Title: Multilingual Prompt Engineering in Large Language Models: A Survey Across NLP Tasks
- Title(参考訳): 大規模言語モデルにおける多言語プロンプトエンジニアリング:NLPタスクを対象とした調査
- Authors: Shubham Vatsal, Harsh Dubey, Aditi Singh,
- Abstract要約: 大規模言語モデル(LLM)は、広範囲の自然言語処理(NLP)タスクで素晴らしいパフォーマンスを示している。
しかし、複数の言語にまたがって有効性を確保することは、ユニークな課題である。
多様な言語環境においてLLMの能力を高めるための重要なアプローチとして、多言語プロンプトエンジニアリングが登場している。
- 参考スコア(独自算出の注目度): 0.351124620232225
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) have demonstrated impressive performance across a wide range of Natural Language Processing (NLP) tasks. However, ensuring their effectiveness across multiple languages presents unique challenges. Multilingual prompt engineering has emerged as a key approach to enhance LLMs' capabilities in diverse linguistic settings without requiring extensive parameter re-training or fine-tuning. With growing interest in multilingual prompt engineering over the past two to three years, researchers have explored various strategies to improve LLMs' performance across languages and NLP tasks. By crafting structured natural language prompts, researchers have successfully extracted knowledge from LLMs across different languages, making these techniques an accessible pathway for a broader audience, including those without deep expertise in machine learning, to harness the capabilities of LLMs. In this paper, we survey and categorize different multilingual prompting techniques based on the NLP tasks they address across a diverse set of datasets that collectively span around 250 languages. We further highlight the LLMs employed, present a taxonomy of approaches and discuss potential state-of-the-art (SoTA) methods for specific multilingual datasets. Additionally, we derive a range of insights across language families and resource levels (high-resource vs. low-resource), including analyses such as the distribution of NLP tasks by language resource type and the frequency of prompting methods across different language families. Our survey reviews 36 research papers covering 39 prompting techniques applied to 30 multilingual NLP tasks, with the majority of these studies published in the last two years.
- Abstract(参考訳): 大規模言語モデル(LLM)は、広範囲の自然言語処理(NLP)タスクにおいて素晴らしいパフォーマンスを示している。
しかし、複数の言語にまたがって有効性を確保することは、ユニークな課題である。
多言語プロンプトエンジニアリングは、広範囲なパラメータの再訓練や微調整を必要とせず、多様な言語環境においてLLMの能力を高めるための重要なアプローチとして登場した。
過去2、3年間で多言語プロンプトエンジニアリングへの関心が高まり、研究者はLLMのパフォーマンスを言語やNLPタスクで改善するための様々な戦略を模索してきた。
構造化された自然言語のプロンプトを構築することで、研究者は異なる言語にわたるLLMから知識を抽出し、これらのテクニックを機械学習の深い専門知識を持たない人々を含む幅広い聴衆がLLMの能力を活用できるようにする。
本稿では,約250の言語にまたがる多様なデータセット群にまたがるNLPタスクに基づいて,異なる多言語プロンプト技術を調査し,分類する。
さらに、LLMが採用しているアプローチの分類を取り上げ、特定の多言語データセットに対する潜在的な最先端(SoTA)手法について議論する。
さらに、言語リソースタイプによるNLPタスクの分散や、異なる言語ファミリーにわたるメソッドのプロンプト頻度などの分析を含む、言語ファミリーやリソースレベル(高リソース対低リソース)のさまざまな洞察を導出する。
本調査では,30の多言語NLPタスクに適用した39の技法に関する36の研究論文をレビューし,その大部分が過去2年間に公表されている。
関連論文リスト
- A Survey of Prompt Engineering Methods in Large Language Models for Different NLP Tasks [0.0]
大規模言語モデル(LLM)は多くの異なる自然言語処理(NLP)タスクにおいて顕著なパフォーマンスを示している。
プロンプトエンジニアリングは、大きなパフォーマンス向上を達成するために、既に存在するLLMの能力に追加する上で重要な役割を担います。
本稿では、異なるプロンプト手法を要約し、それらが用いた異なるNLPタスクに基づいてそれらをまとめる。
論文 参考訳(メタデータ) (2024-07-17T20:23:19Z) - A Survey on Large Language Models with Multilingualism: Recent Advances and New Frontiers [51.8203871494146]
LLM(Large Language Models)の急速な開発は、自然言語処理における顕著な多言語機能を示している。
LLMのブレークスルーにもかかわらず、多言語シナリオの研究は依然として不十分である。
本調査は,多言語問題に対する研究コミュニティの取り組みを支援することを目的としており,LLMに基づく多言語自然言語処理における中核概念,鍵技術,最新の発展の包括的理解を提供する。
論文 参考訳(メタデータ) (2024-05-17T17:47:39Z) - Language-Specific Neurons: The Key to Multilingual Capabilities in Large Language Models [117.20416338476856]
大規模言語モデル(LLM)は、特別にキュレートされた多言語並列コーパスで事前訓練されることなく、顕著な多言語機能を示す。
LLM内の言語特異的ニューロンを識別するための新しい検出手法である言語アクティベーション確率エントロピー(LAPE)を提案する。
以上の結果から,LLMが特定の言語を処理できる能力は,神経細胞のサブセットが少なすぎるためであることが示唆された。
論文 参考訳(メタデータ) (2024-02-26T09:36:05Z) - Enhancing Multilingual Capabilities of Large Language Models through
Self-Distillation from Resource-Rich Languages [60.162717568496355]
大規模言語モデル(LLM)は多言語コーパスで事前訓練されている。
彼らのパフォーマンスは、いくつかのリソース豊富な言語と比較して、ほとんどの言語でまだ遅れています。
論文 参考訳(メタデータ) (2024-02-19T15:07:32Z) - UltraLink: An Open-Source Knowledge-Enhanced Multilingual Supervised
Fine-tuning Dataset [69.33424532827608]
オープンソースの大規模言語モデル(LLM)は、様々な分野において大きな強みを持っている。
本研究では,オープンソースの多言語教師付き微調整データセットを構築する。
結果として得られたUltraLinkデータセットは、5つの言語にわたる約100万のサンプルで構成されている。
論文 参考訳(メタデータ) (2024-02-07T05:05:53Z) - Democratizing LLMs for Low-Resource Languages by Leveraging their English Dominant Abilities with Linguistically-Diverse Prompts [75.33019401706188]
大規模言語モデル(LLM)は、少数の例を単純に観察することで、効果的にタスクを実行することが知られている。
我々は,LLMが任意の言語から英語に翻訳するよう促すために,多種多様な高ソース言語から合成例を組み立てることを提案する。
我々の教師なしプロンプト法は、英語と13のIndic言語と21のアフリカ低リソース言語間の翻訳において、異なる大きさのLLMにおける教師付き少ショット学習と同等に機能する。
論文 参考訳(メタデータ) (2023-06-20T08:27:47Z) - Don't Trust ChatGPT when Your Question is not in English: A Study of
Multilingual Abilities and Types of LLMs [16.770697902481107]
大規模言語モデル(LLM)は、例外的な自然言語理解能力を示している。
本論文では,多言語環境下でのLLMの性能格差を体系的に評価する方法を提案する。
その結果,GPTは多言語設定において高い翻訳的振る舞いを示すことがわかった。
論文 参考訳(メタデータ) (2023-05-24T02:05:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。