論文の概要: Prompt Engineering Through the Lens of Optimal Control
- arxiv url: http://arxiv.org/abs/2310.14201v1
- Date: Sun, 22 Oct 2023 06:34:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 01:12:48.190286
- Title: Prompt Engineering Through the Lens of Optimal Control
- Title(参考訳): 最適制御レンズによるプロンプトエンジニアリング
- Authors: Yifan Luo, Yiming Tang, Chengfeng Shen, Zhennan Zhou, Bin Dong
- Abstract要約: 大規模言語モデル(LLM)とのマルチラウンドインタラクションに適した最適制御フレームワークを提案する。
このフレームワークは、既存のPEメソッドを体系化するだけでなく、厳密な解析的改善の段階を設定できる統一された数学的構造を提供する。
- 参考スコア(独自算出の注目度): 9.750381879610849
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Prompt Engineering (PE) has emerged as a critical technique for guiding Large
Language Models (LLMs) in solving intricate tasks. Its importance is
highlighted by its potential to significantly enhance the efficiency and
effectiveness of human-machine interaction. As tasks grow increasingly complex,
recent advanced PE methods have extended beyond the limitations of single-round
interactions to embrace multi-round interactions, which allows for a deeper and
more nuanced engagement with LLMs. In this paper, we propose an optimal control
framework tailored for multi-round interactions with LLMs. This framework
provides a unified mathematical structure that not only systematizes the
existing PE methods but also sets the stage for rigorous analytical
improvements. Furthermore, we extend this framework to include PE via ensemble
methods and multi-agent collaboration, thereby enlarging the scope of
applicability. By adopting an optimal control perspective, we offer fresh
insights into existing PE methods and highlight theoretical challenges that
warrant future research. Besides, our work lays a foundation for the
development of more effective and interpretable PE methods.
- Abstract(参考訳): Prompt Engineering (PE)は、複雑なタスクの解決において、LLM(Large Language Models)を導く重要なテクニックとして登場した。
その重要性は、人間と機械の相互作用の効率と効率を著しく向上させる可能性によって強調される。
タスクが複雑化するにつれて、最近の高度なPE手法は、LLMとのより深く、よりニュアンスなエンゲージメントを可能にするマルチラウンドインタラクションを受け入れるために、シングルラウンドインタラクションの制限を超えて拡張されている。
本稿では,LLMとのマルチラウンドインタラクションに適した最適制御フレームワークを提案する。
このフレームワークは、既存のPEメソッドを体系化するだけでなく、厳密な解析的改善の段階を設定できる統一された数学的構造を提供する。
さらに,本フレームワークを,アンサンブル手法とマルチエージェント協調によるPEを含むように拡張し,適用範囲を拡大する。
最適制御の観点を採用することで、既存のPE手法に対する新たな洞察を提供し、将来の研究を保証できる理論上の課題を強調します。
さらに,本研究は,より効率的かつ解釈可能なPE手法の開発の基礎となる。
関連論文リスト
- Intuition-aware Mixture-of-Rank-1-Experts for Parameter Efficient Finetuning [50.73666458313015]
大規模言語モデル(LLM)はマルチメディアアプリケーションで複数のタスクを実行する上で大きな可能性を証明している。
MoEは、効率的なタスクデカップリングのためのスパースアーキテクチャによる有望なソリューションとして登場した。
Intuition-MoR1Eは14のパブリックデータセットで優れた効率と2.15%の全体的な精度向上を実現している。
論文 参考訳(メタデータ) (2024-04-13T12:14:58Z) - Attention-Driven Multi-Agent Reinforcement Learning: Enhancing Decisions with Expertise-Informed Tasks [1.7689232761699216]
我々は,MARL(Multi-Agent Reinforcement Learning)の強化のための代替手法を提案する。
本手法は,ドメイン固有の専門知識を学習プロセスに組み込むことに重点を置いている。
注意に基づくアプローチが,MARLトレーニングプロセスの効率化に有効であることを示す。
論文 参考訳(メタデータ) (2024-04-08T20:06:33Z) - CMAT: A Multi-Agent Collaboration Tuning Framework for Enhancing Small Language Models [3.2186308082558623]
厳密にキュレートされた高品質データセットに基づいてトレーニングされたTinyAgentモデルを紹介する。
また,言語エージェントの能力向上を目的とした革新的システムであるCMAT(Collaborative Multi-Agent Tuning)フレームワークを提案する。
本研究では,マルチエージェントシステムと環境フィードバック機構を統合した新しいコミュニケーションエージェントフレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-02T06:07:35Z) - Collaborative Pareto Set Learning in Multiple Multi-Objective Optimization Problems [2.5338347389265294]
本稿では,多目的最適化問題を学習するための協調フレームワークを提案する。
種々の多目的最適化問題(MOP)の中に共有可能な表現が存在することを実験的に実証した。
CoPSLは、様々な合成および実世界のMOPに対する最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-04-01T16:31:06Z) - Towards Principled Task Grouping for Multi-Task Learning [14.3385939018772]
マルチタスク学習(MTL)におけるタスクグループ化への新しいアプローチを提案する。
我々の手法は、転送ゲインを構築するための制限的な仮定に依存しない、より理論的に基礎付けられた方法を提供する。
論文 参考訳(メタデータ) (2024-02-23T13:51:20Z) - Large Multimodal Agents: A Survey [78.81459893884737]
大規模言語モデル(LLM)は、テキストベースのAIエージェントのパワーで優れたパフォーマンスを実現している。
LLMを利用したAIエージェントをマルチモーダルドメインに拡張することに焦点を当てた、新たな研究トレンドがある。
本総説は, この急速に発展する分野において, 今後の研究に有用な洞察とガイドラインを提供することを目的としている。
論文 参考訳(メタデータ) (2024-02-23T06:04:23Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Corex: Pushing the Boundaries of Complex Reasoning through Multi-Model Collaboration [83.4031923134958]
Corexは,大規模言語モデルを自律エージェントに変換する,新たな汎用戦略スイートだ。
人間の振る舞いにインスパイアされたCorexは、Debate、Review、Retrieveモードといった多様なコラボレーションパラダイムによって構成されている。
我々は,複数のLDMを協調的に演奏することで,既存の手法に比べて性能が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-09-30T07:11:39Z) - Hierarchical Optimization-Derived Learning [58.69200830655009]
我々は,最適化モデル構築の本質的な動作とそれに対応する学習過程を同時に研究するために,階層型ODL(Hyerarchical ODL)という新しいフレームワークを構築した。
これは、最適化と学習という2つの結合されたODLコンポーネントに対する最初の理論的保証である。
論文 参考訳(メタデータ) (2023-02-11T03:35:13Z) - Learning Robust State Abstractions for Hidden-Parameter Block MDPs [55.31018404591743]
我々は、ブロックMDPにインスパイアされた堅牢な状態抽象化を実現するために、HiP-MDP設定からの共通構造の概念を活用する。
マルチタスク強化学習 (MTRL) とメタ強化学習 (Meta-RL) の両方のための新しいフレームワークのインスタンス化を導出する。
論文 参考訳(メタデータ) (2020-07-14T17:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。