論文の概要: LangGPT: Rethinking Structured Reusable Prompt Design Framework for LLMs
from the Programming Language
- arxiv url: http://arxiv.org/abs/2402.16929v1
- Date: Mon, 26 Feb 2024 15:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:03:16.630240
- Title: LangGPT: Rethinking Structured Reusable Prompt Design Framework for LLMs
from the Programming Language
- Title(参考訳): LangGPT: LLMの構造化再利用可能なプロンプト設計フレームワークをプログラミング言語から再考
- Authors: Ming Wang, Yuanzhong Liu, Xiaoming Zhang, Songlian Li, Yijie Huang,
Chi Zhang, Daling Wang, Shi Feng, Jigang Li
- Abstract要約: LLMのプログラミング言語としての2層プロンプト設計フレームワークであるLangGPTを提案する。
LangGPTは、簡単に学習できる規範構造を持ち、マイグレーションと再利用のために拡張された構造を提供する。
我々は,プロンプトデザインの授業と共有を容易にするため,LangGPT上にコミュニティを構築した。
- 参考スコア(独自算出の注目度): 20.810595251323704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs have demonstrated commendable performance across diverse domains.
Nevertheless, formulating high-quality prompts to effectively instruct LLMs
poses a challenge for non-AI experts. Existing research in prompt engineering
suggests somewhat fragmented optimization principles and designs empirically
dependent prompt optimizers. Unfortunately, these endeavors lack a structured
design template, incurring high learning costs and resulting in low
reusability. Inspired by structured reusable programming languages, we propose
LangGPT, a dual-layer prompt design framework as the programming language for
LLMs. LangGPT has an easy-to-learn normative structure and provides an extended
structure for migration and reuse. Experiments illustrate that LangGPT
significantly enhances the capacity of LLMs to produce responses of superior
quality compared to baselines. Moreover, LangGPT has proven effective in
guiding LLMs to generate high-quality prompts. We have built a community on
LangGPT to facilitate the tuition and sharing of prompt design. We also
analyzed the ease of use and reusability of LangGPT through a community user
survey.
- Abstract(参考訳): LLMは様々な領域で高い性能を示している。
それでも、LLMを効果的に指導するための高品質なプロンプトの定式化は、非AI専門家にとって課題となる。
プロンプトエンジニアリングにおける既存の研究は、幾分断片化された最適化の原則と設計を実証的に依存するプロンプトオプティマイザを提案する。
残念ながら、これらの取り組みには構造化された設計テンプレートがなく、高い学習コストがかかり、再利用性が低い。
構造化再利用可能なプログラミング言語に着想を得て,llms用プログラミング言語として2層プロンプト設計フレームワークlanggptを提案する。
LangGPTは簡単に学習できる規範構造を持ち、マイグレーションと再利用のために拡張された構造を提供する。
実験により,LangGPTはLLMの容量を大幅に向上し,ベースラインよりも優れた品質の応答が得られることが示された。
さらに、LangGPTはLLMを誘導して高品質なプロンプトを生成するのに有効であることが証明されている。
我々は,プロンプトデザインの授業と共有を容易にするため,LangGPT上にコミュニティを構築した。
また,コミュニティユーザ調査を通じて,LangGPTの使いやすさと再利用性についても分析した。
関連論文リスト
- AssistRAG: Boosting the Potential of Large Language Models with an Intelligent Information Assistant [23.366991558162695]
大規模言語モデルは「幻覚」として知られる事実的に誤った情報を生成する
これらの課題に対処するため、我々はAssistRAG(AssistRAG)を用いた検索生成支援システムを提案する。
このアシスタントは、ツールの使用、アクションの実行、メモリ構築、プラン仕様を通じて、メモリと知識を管理する。
論文 参考訳(メタデータ) (2024-11-11T09:03:52Z) - Minstrel: Structural Prompt Generation with Multi-Agents Coordination for Non-AI Experts [22.500968440666398]
LangGPTは構造的なプロンプト設計フレームワークである。
ミンストレル (Minstrel) は、構造的プロンプトの自動生成を反映した多世代エージェントシステムである。
論文 参考訳(メタデータ) (2024-09-20T12:30:03Z) - MAPO: Boosting Large Language Model Performance with Model-Adaptive Prompt Optimization [73.7779735046424]
異なるプロンプトを異なるLarge Language Models (LLM) に適応させることで,NLP の様々な下流タスクにまたがる機能の向上が期待できる。
次に、下流タスクにおける各LLMに対して、元のプロンプトを最適化するモデル適応プロンプト(MAPO)手法を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:39:59Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - Towards Hierarchical Multi-Agent Workflows for Zero-Shot Prompt Optimization [19.200989737492595]
大規模言語モデル(LLM)は、ユーザの質問に答える上で大きな進歩を見せている。
LLMの出力の品質はプロンプト設計に大きく依存しており、優れたプロンプトによってLLMが非常に難しい問題に正しく答えられる可能性がある。
LLMの階層構造を提案し、まず、正確な指示と正確な単語を階層的に生成し、次に、このプロンプトを用いてユーザクエリの最終回答を生成する。
論文 参考訳(メタデータ) (2024-05-30T17:05:45Z) - Synthesizing Programmatic Reinforcement Learning Policies with Large Language Model Guided Search [7.769411917500852]
LLM誘導検索フレームワーク(LLM-GS)について紹介する。
我々の重要な洞察は、LLMのプログラミングの専門知識と常識推論を活用して、仮定不要でランダムな探索手法の効率を高めることである。
本研究では,プログラム探索空間を効率的に探索し,一貫したプログラムを改善するための探索アルゴリズムであるSchduled Hill Climbingを開発した。
論文 参考訳(メタデータ) (2024-05-26T06:33:48Z) - CourseGPT-zh: an Educational Large Language Model Based on Knowledge Distillation Incorporating Prompt Optimization [22.080563239179618]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて驚くべき機能を示している。
我々は、カスタマイズと低コストな展開をサポートするコース指向LLMであるCourseGPT-zhを提案する。
論文 参考訳(メタデータ) (2024-05-08T03:11:12Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - Are Large Language Models Good Prompt Optimizers? [65.48910201816223]
我々は,LLMに基づくPrompt Optimizationの実際のメカニズムを明らかにするために研究を行っている。
以上の結果から, LLMは, 反射中の誤差の真の原因を特定するのに苦慮し, 自己の事前知識に偏っていることが明らかとなった。
我々は、より制御可能な方法でターゲットモデルの振舞いを直接最適化する新しい「自動振舞い最適化」パラダイムを導入する。
論文 参考訳(メタデータ) (2024-02-03T09:48:54Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。