論文の概要: TreePrompt: Leveraging Hierarchical Few-Shot Example Selection for Improved English-Persian and English-German Translation
- arxiv url: http://arxiv.org/abs/2510.03748v1
- Date: Sat, 04 Oct 2025 09:26:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.228969
- Title: TreePrompt: Leveraging Hierarchical Few-Shot Example Selection for Improved English-Persian and English-German Translation
- Title(参考訳): TreePrompt: 英語・ペルシャ語・英語・ドイツ語翻訳の改善のための階層的なFew-Shot例の選択
- Authors: Ramtin Kakavand, Ebrahim Ansari,
- Abstract要約: TreePromptは、LLMの好みを学習して、高品質でコンテキストに関連のあるサンプルを識別する、新しい例選択アプローチである。
英語-ペルシャ語(MIZAN)と英語-ドイツ語(WMT19)の2つの言語ペアの評価は、TreePromptをAFSPやランダム選択と組み合わせることで、翻訳性能が向上することを示している。
- 参考スコア(独自算出の注目度): 0.046282742339382156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have consistently demonstrated strong performance in machine translation, especially when guided by high-quality prompts. Few-shot prompting is an effective technique to improve translation quality; however, most existing example selection methods focus solely on query-to-example similarity and do not account for the quality of the examples. In this work, we propose TreePrompt, a novel example selection approach that learns LLM preferences to identify high-quality, contextually relevant examples within a tree-structured framework. To further explore the balance between similarity and quality, we combine TreePrompt with K-Nearest Neighbors (K-NN) and Adaptive Few-Shot Prompting (AFSP). Evaluations on two language pairs - English-Persian (MIZAN) and English-German (WMT19) - show that integrating TreePrompt with AFSP or Random selection leads to improved translation performance.
- Abstract(参考訳): 大規模言語モデル(LLM)は機械翻訳において、特に高品質なプロンプトによって誘導される場合、一貫して強力な性能を示してきた。
ほとんどショットプロンプトは翻訳品質を改善するのに有効な手法であるが、既存のほとんどの例選択手法はクエリ対例の類似性にのみ焦点を絞っており、サンプルの品質を考慮していない。
本研究では,LLM選好を学習し,木構造フレームワーク内の高品質でコンテキストに関連のある事例を識別する新しい例選択手法であるTreePromptを提案する。
類似性と品質のバランスをさらに探求するため、TreePromptとK-Nearest Neighbors(K-NN)とAdaptive Few-Shot Prompting(AFSP)を組み合わせる。
英語-ペルシャ語(MIZAN)と英語-ドイツ語(WMT19)の2つの言語ペアの評価は、TreePromptをAFSPやランダム選択と組み合わせることで、翻訳性能が向上することを示している。
関連論文リスト
- PromptRefine: Enhancing Few-Shot Performance on Low-Resource Indic Languages with Example Selection from Related Example Banks [57.86928556668849]
大規模言語モデル(LLM)は、近ごろ、コンテキスト内学習(ICL)を通じて、印象的な数ショットの学習能力を実証した。
ICLのパフォーマンスは、数発のデモの選択に大きく依存しており、最も最適な例の選択は永続的な研究課題である。
本稿では,低リソースのIndic言語におけるICLの性能向上を目的とした,新しい代替最小化手法であるPromptRefineを提案する。
論文 参考訳(メタデータ) (2024-12-07T17:51:31Z) - SCOI: Syntax-augmented Coverage-based In-context Example Selection for Machine Translation [13.87098305304058]
そこで本研究では,機械翻訳(MT)における文脈内例の選択に統語的知識を導入する。
我々は、構文拡張されたコベレージベースのIn-context example selection (SCOI) という新しい戦略を提案する。
提案するSCOIは,すべての学習自由手法の中で,平均COMETスコアが最も高い。
論文 参考訳(メタデータ) (2024-08-09T05:25:17Z) - ParaICL: Towards Parallel In-Context Learning [74.38022919598443]
大規模言語モデル(LLM)が自然言語処理の標準となっている。
インコンテキスト・ラーニング(ICL)は、いくつかの実演例の選択に依存している。
パラレルインコンテキスト学習(ParaICL)という新しい手法を提案する。
論文 参考訳(メタデータ) (2024-03-31T05:56:15Z) - CTQScorer: Combining Multiple Features for In-context Example Selection
for Machine Translation [22.700587969696933]
我々は、翻訳品質を最大化するために、複数の特徴に基づいてサンプルを選択する回帰モデルCTQ Scorerを学習する。
複数の言語ペアと言語モデルにおいて、CTQ Scorerがランダム選択を著しく上回ることを示す。
また,強力なBM25検索ベースラインに対して,平均2.5 COMET点以上の改善が見られた。
論文 参考訳(メタデータ) (2023-05-23T14:26:17Z) - Prompting Large Language Model for Machine Translation: A Case Study [87.88120385000666]
我々は機械翻訳戦略の推進に関する体系的研究を行っている。
本稿では,プロンプトテンプレートと実演例選択の要因について検討する。
本稿では,モノリンガルデータの利用と,クロスリンガル,クロスドメイン,文-文書間伝達学習の実現可能性について検討する。
論文 参考訳(メタデータ) (2023-01-17T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。