論文の概要: LangGPT: Rethinking Structured Reusable Prompt Design Framework for LLMs
from the Programming Language
- arxiv url: http://arxiv.org/abs/2402.16929v1
- Date: Mon, 26 Feb 2024 15:05:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 19:03:16.630240
- Title: LangGPT: Rethinking Structured Reusable Prompt Design Framework for LLMs
from the Programming Language
- Title(参考訳): LangGPT: LLMの構造化再利用可能なプロンプト設計フレームワークをプログラミング言語から再考
- Authors: Ming Wang, Yuanzhong Liu, Xiaoming Zhang, Songlian Li, Yijie Huang,
Chi Zhang, Daling Wang, Shi Feng, Jigang Li
- Abstract要約: LLMのプログラミング言語としての2層プロンプト設計フレームワークであるLangGPTを提案する。
LangGPTは、簡単に学習できる規範構造を持ち、マイグレーションと再利用のために拡張された構造を提供する。
我々は,プロンプトデザインの授業と共有を容易にするため,LangGPT上にコミュニティを構築した。
- 参考スコア(独自算出の注目度): 20.810595251323704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: LLMs have demonstrated commendable performance across diverse domains.
Nevertheless, formulating high-quality prompts to effectively instruct LLMs
poses a challenge for non-AI experts. Existing research in prompt engineering
suggests somewhat fragmented optimization principles and designs empirically
dependent prompt optimizers. Unfortunately, these endeavors lack a structured
design template, incurring high learning costs and resulting in low
reusability. Inspired by structured reusable programming languages, we propose
LangGPT, a dual-layer prompt design framework as the programming language for
LLMs. LangGPT has an easy-to-learn normative structure and provides an extended
structure for migration and reuse. Experiments illustrate that LangGPT
significantly enhances the capacity of LLMs to produce responses of superior
quality compared to baselines. Moreover, LangGPT has proven effective in
guiding LLMs to generate high-quality prompts. We have built a community on
LangGPT to facilitate the tuition and sharing of prompt design. We also
analyzed the ease of use and reusability of LangGPT through a community user
survey.
- Abstract(参考訳): LLMは様々な領域で高い性能を示している。
それでも、LLMを効果的に指導するための高品質なプロンプトの定式化は、非AI専門家にとって課題となる。
プロンプトエンジニアリングにおける既存の研究は、幾分断片化された最適化の原則と設計を実証的に依存するプロンプトオプティマイザを提案する。
残念ながら、これらの取り組みには構造化された設計テンプレートがなく、高い学習コストがかかり、再利用性が低い。
構造化再利用可能なプログラミング言語に着想を得て,llms用プログラミング言語として2層プロンプト設計フレームワークlanggptを提案する。
LangGPTは簡単に学習できる規範構造を持ち、マイグレーションと再利用のために拡張された構造を提供する。
実験により,LangGPTはLLMの容量を大幅に向上し,ベースラインよりも優れた品質の応答が得られることが示された。
さらに、LangGPTはLLMを誘導して高品質なプロンプトを生成するのに有効であることが証明されている。
我々は,プロンプトデザインの授業と共有を容易にするため,LangGPT上にコミュニティを構築した。
また,コミュニティユーザ調査を通じて,LangGPTの使いやすさと再利用性についても分析した。
関連論文リスト
- CourseGPT-zh: an Educational Large Language Model Based on Knowledge Distillation Incorporating Prompt Optimization [22.080563239179618]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクにおいて驚くべき機能を示している。
我々は、カスタマイズと低コストな展開をサポートするコース指向LLMであるCourseGPT-zhを提案する。
論文 参考訳(メタデータ) (2024-05-08T03:11:12Z) - Efficient Prompting Methods for Large Language Models: A Survey [50.171011917404485]
プロンプティングは、特定の自然言語処理タスクに大規模言語モデル(LLM)を適用するための主流パラダイムとなっている。
このアプローチは、LLMの振る舞いをガイドし、制御するために、モデル推論と人間の努力のさらなる計算負担をもたらす。
本稿では, 今後の研究の方向性を明らかにするため, 促進, 効率的な促進のための進歩を概説する。
論文 参考訳(メタデータ) (2024-04-01T12:19:08Z) - If LLM Is the Wizard, Then Code Is the Wand: A Survey on How Code
Empowers Large Language Models to Serve as Intelligent Agents [81.60906807941188]
大型言語モデル(LLM)は、自然言語と形式言語(コード)の組み合わせに基づいて訓練される
コードは、標準構文、論理一貫性、抽象化、モジュール性を備えた高レベルの目標を実行可能なステップに変換する。
論文 参考訳(メタデータ) (2024-01-01T16:51:20Z) - A Prompt Learning Framework for Source Code Summarization [24.33455799484519]
本稿では,PromptCSと呼ばれるコード要約のための新しいプロンプト学習フレームワークを提案する。
PromptCSは、コード要約においてLLMのポテンシャルを解放するために連続的なプロンプトを生成するプロンプトエージェントを訓練する。
複数のプログラミング言語を含むCodeSearchNetデータセット上でPromptCSを評価する。
論文 参考訳(メタデータ) (2023-12-26T14:37:55Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - ISR-LLM: Iterative Self-Refined Large Language Model for Long-Horizon
Sequential Task Planning [7.701407633867452]
大規模言語モデル(LLM)は、タスクに依存しないプランナとして一般化性を高める可能性を提供する。
ISR-LLMは,反復的な自己複製プロセスを通じてLCMに基づく計画を改善する新しいフレームワークである。
ISR-LLM は現状の LLM ベースのプランナに比べてタスク達成率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-08-26T01:31:35Z) - Okapi: Instruction-tuned Large Language Models in Multiple Languages
with Reinforcement Learning from Human Feedback [61.83548032416181]
複数の言語を対象としたRLHFに基づく命令調整型LLMシステムであるOkapiを提案する。
オカピは26の多言語言語でインストラクションと応答ランクデータを導入し、将来の多言語LLM研究の促進と開発に役立てている。
論文 参考訳(メタデータ) (2023-07-29T18:01:46Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - Breaking Language Barriers with a LEAP: Learning Strategies for Polyglot
LLMs [5.682384717239095]
大規模言語モデル(LLM)は、世界中の多くのドメインを変換する最前線にある。
本稿では,LLMの多言語性能向上のための命令的課題に取り組む。
ポリグロットランドスケープにおけるLLMの真のポテンシャルを解き放つ新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-28T14:48:38Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。