論文の概要: Prompting Large Language Model for Machine Translation: A Case Study
- arxiv url: http://arxiv.org/abs/2301.07069v2
- Date: Wed, 18 Jan 2023 11:30:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-19 12:04:05.209013
- Title: Prompting Large Language Model for Machine Translation: A Case Study
- Title(参考訳): 機械翻訳のための大規模言語モデルの提案 : 事例研究
- Authors: Biao Zhang, Barry Haddow, Alexandra Birch
- Abstract要約: 我々は機械翻訳戦略の推進に関する体系的研究を行っている。
本稿では,プロンプトテンプレートと実演例選択の要因について検討する。
本稿では,モノリンガルデータの利用と,クロスリンガル,クロスドメイン,文-文書間伝達学習の実現可能性について検討する。
- 参考スコア(独自算出の注目度): 87.88120385000666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on prompting has shown excellent performance with little or even no
supervised training across many tasks. However, prompting for machine
translation is still under-explored in the literature. We fill this gap by
offering a systematic study on prompting strategies for translation, examining
various factors for prompt template and demonstration example selection. We
further explore the use of monolingual data and the feasibility of
cross-lingual, cross-domain, and sentence-to-document transfer learning in
prompting. Extensive experiments with GLM-130B (Zeng et al., 2022) as the
testbed show that 1) the number and the quality of prompt examples matter,
where using suboptimal examples degenerates translation; 2) several features of
prompt examples, such as semantic similarity, show significant Spearman
correlation with their prompting performance; yet, none of the correlations are
strong enough; 3) using pseudo parallel prompt examples constructed from
monolingual data via zero-shot prompting could improve translation; and 4)
improved performance is achievable by transferring knowledge from prompt
examples selected in other settings. We finally provide an analysis on the
model outputs and discuss several problems that prompting still suffers from.
- Abstract(参考訳): プロンプトの研究は、多くのタスクにわたる教師付きトレーニングをほとんどあるいは全く行わず、優れたパフォーマンスを示している。
しかし、機械翻訳の推進は文学ではいまだに未熟である。
このギャップを埋めるために,翻訳のプロンプト戦略に関する体系的な研究を行い,プロンプトテンプレートとサンプル選択のさまざまな要因を調査した。
さらに,単言語データの利用と,言語間,クロスドメイン,文書間転送学習の実現可能性について検討した。
試験ベッドとしてのglm-130b(zeng et al., 2022)の広範囲実験
1) プロンプト例の個数及び品質は,準最適例を用いて翻訳を退化させる場合に問題となる。
2) 意味的類似性などの素早い例のいくつかの特徴は,その素早い性能とスピアマンの有意な相関を示すが,相関性は十分強くない。
3) ゼロショットプロンプトによる単言語データから構築した擬似並列プロンプト例を用いることで翻訳が向上する。
4) 他の設定で選択したプロンプト例から知識を転送することにより、パフォーマンスの向上を実現する。
最終的に、モデル出力の分析を行い、まだ苦しめられているいくつかの問題について議論する。
関連論文リスト
- The Power of Question Translation Training in Multilingual Reasoning: Broadened Scope and Deepened Insights [108.40766216456413]
大規模言語モデルの英語と非英語のパフォーマンスのギャップを埋めるための質問アライメントフレームワークを提案する。
実験結果から、さまざまな推論シナリオ、モデルファミリー、サイズにわたって、多言語のパフォーマンスを向上できることが示された。
我々は、表現空間、生成された応答とデータスケールを分析し、質問翻訳訓練がLLM内の言語アライメントをどのように強化するかを明らかにする。
論文 参考訳(メタデータ) (2024-05-02T14:49:50Z) - Multilingual Few-Shot Learning via Language Model Retrieval [18.465566186549072]
トランスフォーマーベースの言語モデルは、数ショットのインコンテキスト学習において顕著な成功を収めた。
本研究は,意味論的に類似したショットサンプルを検索し,コンテキストとして利用する研究である。
提案手法を,意図検出,質問分類,感情分析,話題分類に関連する5つの自然言語理解データセット上で評価した。
論文 参考訳(メタデータ) (2023-06-19T14:27:21Z) - MetricPrompt: Prompting Model as a Relevance Metric for Few-shot Text
Classification [65.51149771074944]
MetricPromptは、数発のテキスト分類タスクをテキストペア関連性推定タスクに書き換えることで、言語設計の難易度を緩和する。
広範に使われている3つのテキスト分類データセットを4つのショット・セッティングで実験する。
結果から,MetricPromptは,手動弁証法や自動弁証法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-06-15T06:51:35Z) - BUFFET: Benchmarking Large Language Models for Few-shot Cross-lingual
Transfer [81.5984433881309]
本稿では,54言語にまたがる15のタスクをシーケンス・ツー・シーケンス・フォーマットで統一するBUFFETを紹介する。
BUFFETは、数発の言語間移動のための厳密で公平な評価フレームワークを確立するように設計されている。
コンテクスト内言語間移動における改善の余地は極めて大きいことが判明した。
論文 参考訳(メタデータ) (2023-05-24T08:06:33Z) - Decomposed Prompting for Machine Translation Between Related Languages
using Large Language Models [55.35106713257871]
DecoMTは、単語チャンク翻訳のシーケンスに翻訳プロセスを分解する、数発のプロンプトの新しいアプローチである。
DecoMTはBLOOMモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-22T14:52:47Z) - In-context Learning as Maintaining Coherency: A Study of On-the-fly
Machine Translation Using Large Language Models [15.309754694595322]
コンテキスト内学習をコンテキストとの整合性を維持するために望ましい生成タスクとして提示する。
まず、4つのドメインにまたがってランダムにサンプリングされたプロンプトを調査し、ドメイン内のプロンプトを表示すると翻訳性能が向上することを示した。
そこで本研究では,オンザフライ適応のためのインコンテキスト機械翻訳の有効性を実証する。
論文 参考訳(メタデータ) (2023-05-05T14:30:20Z) - Demystifying Prompts in Language Models via Perplexity Estimation [109.59105230163041]
プロンプトのパフォーマンスは、モデルが含んでいる言語に精通している範囲と結合している。
プロンプトの難易度が低ければ低いほど、プロンプトがタスクを実行することができることを示す。
論文 参考訳(メタデータ) (2022-12-08T02:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。