論文の概要: TAPO: Task-Referenced Adaptation for Prompt Optimization
- arxiv url: http://arxiv.org/abs/2501.06689v1
- Date: Sun, 12 Jan 2025 02:43:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:26:02.617453
- Title: TAPO: Task-Referenced Adaptation for Prompt Optimization
- Title(参考訳): TAPO: プロンプト最適化のためのタスク参照適応
- Authors: Wenxin Luo, Weirui Wang, Xiaopeng Li, Weibo Zhou, Pengyue Jia, Xiangyu Zhao,
- Abstract要約: 本稿では,3つの鍵モジュールからなるマルチタスク対応プロンプト最適化フレームワークTAPOを紹介する。
まず、タスク固有のプロンプト生成機能を強化するために、タスク対応メトリック選択モジュールを提案する。
次に,複数視点からのプロンプトを共同評価するマルチメトリック評価モジュールを提案する。
第3に、自動プロンプト改善のための進化ベースの最適化フレームワークが導入され、様々なタスクへの適応性が改善されている。
- 参考スコア(独自算出の注目度): 18.533289140594146
- License:
- Abstract: Prompt engineering can significantly improve the performance of large language models (LLMs), with automated prompt optimization (APO) gaining significant attention due to the time-consuming and laborious nature of manual prompt design. However, much of the existing work in APO overlooks task-specific characteristics, resulting in prompts that lack domain specificity and are not well-suited for task-specific optimization. In this paper, we introduce TAPO, a multitask-aware prompt optimization framework composed of three key modules. First, a task-aware metric selection module is proposed to enhance task-specific prompt generation capabilities. Second, we present a multi-metrics evaluation module to jointly evaluate prompts from multiple perspectives. Third, an evolution-based optimization framework is introduced for automatic prompt refinement, which improves adaptability across various tasks. Extensive experiments on six datasets demonstrate the effectiveness of our approach, and our code is publicly available.
- Abstract(参考訳): プロンプトエンジニアリングは、大規模言語モデル(LLM)の性能を著しく向上させ、自動プロンプト最適化(APO)は、手動プロンプト設計の時間的・労力的な性質のため、大きな注目を集めている。
しかし、APOの既存の作業の多くはタスク固有の特性を見落としており、結果としてドメイン固有の性質が欠如し、タスク固有の最適化には適していないというプロンプトが生じる。
本稿では,3つの鍵モジュールからなるマルチタスク対応プロンプト最適化フレームワークTAPOを紹介する。
まず、タスク固有のプロンプト生成機能を強化するために、タスク対応メトリック選択モジュールを提案する。
次に,複数視点からのプロンプトを共同評価するマルチメトリック評価モジュールを提案する。
第3に、自動プロンプト改善のための進化ベースの最適化フレームワークが導入され、様々なタスクへの適応性が改善されている。
6つのデータセットに対する大規模な実験は、我々のアプローチの有効性を示し、私たちのコードは公開されています。
関連論文リスト
- SPRIG: Improving Large Language Model Performance by System Prompt Optimization [45.96513122345295]
大きな言語モデル(LLM)は多くのシナリオで印象的な機能を示しているが、そのパフォーマンスはプロンプトの選択に依存している。
本研究では,モデルの性能を最大化するために,既定成分からのプロンプトを反復的に構築する編集に基づく遺伝的アルゴリズムであるSPRIGを提案する。
47種類のタスクの集合に対して,システムプロンプトの性能を評価し,一般化性を確保する。
論文 参考訳(メタデータ) (2024-10-18T18:51:44Z) - AMPO: Automatic Multi-Branched Prompt Optimization [43.586044739174646]
本稿では,障害事例をフィードバックとして多分岐プロンプトを反復的に開発する自動プロンプト最適化手法AMPOを提案する。
5つのタスクにわたる実験では、AMPOが常に最良の結果を達成する。
論文 参考訳(メタデータ) (2024-10-11T10:34:28Z) - CriSPO: Multi-Aspect Critique-Suggestion-guided Automatic Prompt Optimization for Text Generation [18.39379838806384]
本稿では,CriSPO(Prompt Optimization)アプローチを提案する。
CriSPO はコアコンポーネントとして critique-suggestion モジュールを導入している。
このモジュールは自然にアスペクトを発見し、これらのアスペクト間で生成された参照テキストを比較し、即時修正のための実行可能な提案を提供する。
マルチメトリック最適化によりCrisPOをさらに改善するため、複数のメトリクスにわたるタスクプロンプトのパフォーマンスを向上させるために、自動サフィックスチューニング(AST)拡張を導入する。
論文 参考訳(メタデータ) (2024-10-03T17:57:01Z) - M$^2$PT: Multimodal Prompt Tuning for Zero-shot Instruction Learning [90.75075886543404]
MLLM(Multimodal Large Language Models)は、幅広い領域にわたる顕著なパフォーマンスを示す。
本研究では,MLLMの効率的な命令チューニングのための新しいMultimodal Prompt Tuning (M$2$PT) 手法を提案する。
論文 参考訳(メタデータ) (2024-09-24T01:40:24Z) - QPO: Query-dependent Prompt Optimization via Multi-Loop Offline Reinforcement Learning [58.767866109043055]
クエリ依存型プロンプト最適化(QPO)を導入し、入力クエリに合わせて最適なプロンプトを生成するために、小さな事前訓練された言語モデルを反復的に微調整する。
我々は、オープンソースのタスクに様々なプロンプトをベンチマークする副産物として、すでに大量に存在するオフラインのプロンプトデータから洞察を得る。
様々なLLMスケールと多様なNLPおよび数学タスクの実験は、ゼロショットと少数ショットの両方のシナリオにおいて、我々の手法の有効性とコスト効率を実証している。
論文 参考訳(メタデータ) (2024-08-20T03:06:48Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Efficient Prompt Optimization Through the Lens of Best Arm Identification [50.56113809171805]
この作業は、明示的な予算制約の下でプロンプト選択を効率的に行うための、原則化されたフレームワークであるTRIPLEを提供する。
マルチアームバンディット(MAB)における即時最適化と固定予算ベストアーム識別(BAI-FB)の間に確立された新しい接続上に構築されている。
論文 参考訳(メタデータ) (2024-02-15T05:31:13Z) - Dynamic Prompting: A Unified Framework for Prompt Tuning [33.175097465669374]
本稿では、特定のタスクやインスタンスに基づいて、異なるプロンプトの要因を動的に決定する統合動的プロンプト(DP)チューニング戦略を提案する。
実験結果は、幅広いタスクにわたる動的プロンプトチューニングによって達成された顕著なパフォーマンス改善を裏付けるものである。
我々は、全データ、少数ショット、マルチタスクのシナリオの下で、我々のアプローチの普遍的な適用性を確立する。
論文 参考訳(メタデータ) (2023-03-06T06:04:46Z) - Multitask Vision-Language Prompt Tuning [103.5967011236282]
マルチタスク視覚言語プロンプトチューニング(MV)を提案する。
MVはクロスタスクの知識を視覚言語モデルの迅速なチューニングに取り入れている。
20個の視覚タスクの結果、提案手法は全ての単一タスクのベースライン・プロンプト・チューニング法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T18:41:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。