論文の概要: Robust Instruction Optimization for Large Language Models with
Distribution Shifts
- arxiv url: http://arxiv.org/abs/2305.13954v1
- Date: Tue, 23 May 2023 11:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 16:47:31.232350
- Title: Robust Instruction Optimization for Large Language Models with
Distribution Shifts
- Title(参考訳): 分布シフトを伴う大規模言語モデルのロバスト命令最適化
- Authors: Moxin Li, Wenjie Wang, Fuli Feng, Jizhi Zhang, Tat-Seng Chua
- Abstract要約: そこで本研究では,目に見えないデータ群の性能向上を図るための,より堅牢な命令を導出するフレームワークを提案する。
提案手法の有効性を実験的に検証した。
- 参考スコア(独自算出の注目度): 85.11514348620581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models have demonstrated significant ability in accomplishing
a wide range of Natural Language Processing (NLP) tasks. However, their
performance is highly sensitive to the even minor changes in the phrasing of
the task instructions, leading to a line of research in automatic instruction
optimization towards better performance for NLP tasks. Unfortunately, existing
methods for instruction optimization fail to consider the distribution shift
between the seen training data and the unseen test data, where testing on
unseen group of data with a different distribution could potentially lead to
performance drop. In this paper, we take an initial step of investigating the
problem of LLM instruction optimization across data groups with distribution
shifts. We find that the optimal instructions do encounter performance drops on
LLM under certain distribution shifts. To this end, we propose a framework to
derive more robust optimal instructions that improve the performance on the
unseen data group without large sacrifice on the seen data group. Experimental
results demonstrate the effectiveness of our proposed framework.
- Abstract(参考訳): 大規模言語モデルは、幅広い自然言語処理(nlp)タスクを達成する上で有意な能力を示している。
しかし、それらの性能はタスク命令のフィラシングの微妙な変化に非常に敏感であり、nlpタスクのパフォーマンス向上に向けた自動命令最適化の研究の行に繋がる。
残念なことに、既存の命令最適化の方法は、見掛けられたトレーニングデータと見当たらないテストデータの間の分散シフトを考慮していない。
本稿では,分散シフトを持つデータ群間でllm命令の最適化の問題を検討する最初のステップについて述べる。
最適命令は特定の分布シフトの下でLLMの性能低下に遭遇する。
そこで本研究では,見掛けたデータ群を犠牲にすることなく,見当たらないデータ群の性能を向上させるための,よりロバストな最適命令を導出する枠組みを提案する。
提案手法の有効性を実験的に検証した。
関連論文リスト
- Optima: Optimizing Effectiveness and Efficiency for LLM-Based Multi-Agent System [75.25394449773052]
大規模言語モデル (LLM) に基づくマルチエージェントシステム (MAS) は協調的問題解決において顕著な可能性を示している。
通信効率の低下、スケーラビリティの低下、効果的なパラメータ更新方法の欠如などです。
本稿では,コミュニケーション効率とタスク効率を両立させ,これらの課題に対処する新しいフレームワークOptimaを提案する。
論文 参考訳(メタデータ) (2024-10-10T17:00:06Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - Localized Zeroth-Order Prompt Optimization [54.964765668688806]
そこで我々は,ZOPO(Localized zeroth-order prompt optimization)という新しいアルゴリズムを提案する。
ZOPOはニューラル・タンジェント・カーネルをベースとしたガウス法を標準ゼロ階次最適化に取り入れ、高速な局所最適探索を高速化する。
注目すべきは、ZOPOは最適化性能とクエリ効率の両方の観点から、既存のベースラインを上回っていることだ。
論文 参考訳(メタデータ) (2024-03-05T14:18:15Z) - Controllable Prompt Tuning For Balancing Group Distributional Robustness [53.336515056479705]
グループ間で優れたパフォーマンスを実現するための最適化スキームを導入し、それらの性能を著しく犠牲にすることなく、全員に良い解決策を見出す。
本稿では,制御可能なプロンプトチューニング(CPT)を提案する。
突発的相関ベンチマークでは, 変換器と非変換器の両アーキテクチャ, および非モーダルおよびマルチモーダルデータにまたがって, 最先端の結果が得られた。
論文 参考訳(メタデータ) (2024-03-05T06:23:55Z) - FIPO: Free-form Instruction-oriented Prompt Optimization with Preference Dataset and Modular Fine-tuning Schema [36.65009632307124]
大規模言語モデル(LLM)のタスク性能向上のためのFIPO(Free-from Instruction-oriented Prompt Optimization)を提案する。
FIPOはモジュール型のAPOテンプレートを使用して、単純で最適化されたプロンプトを生成するために、ナイーブなタスク命令、オプションの命令応答、オプションの接地真理を動的に統合する。
5つの公開ベンチマークと6つのテストモデルでFIPOフレームワークを検証する。
論文 参考訳(メタデータ) (2024-02-19T03:56:44Z) - PhaseEvo: Towards Unified In-Context Prompt Optimization for Large
Language Models [9.362082187605356]
本稿では、LLMの生成能力と進化アルゴリズムのグローバル検索能力を組み合わせた効率的な自動プロンプト最適化フレームワークであるPhaseEvoについて述べる。
PhaseEvoは、優れた効率を維持しながら、最先端のベースライン手法を大きなマージンで大幅に上回っている。
論文 参考訳(メタデータ) (2024-02-17T17:47:10Z) - Large Language Models as Optimizers [106.52386531624532]
本稿では,大規模言語モデル (LLM) をプロンプトとして活用するためのシンプルで効果的な手法である Prompting (OPRO) を提案する。
各最適化ステップにおいて、LLMは、前述した値を含むプロンプトから新しい解を生成する。
OPROにより最適化された最良のプロンプトは、GSM8Kで最大8%、Big-Bench Hardタスクで最大50%向上することを示した。
論文 参考訳(メタデータ) (2023-09-07T00:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。