論文の概要: The Prompt Canvas: A Literature-Based Practitioner Guide for Creating Effective Prompts in Large Language Models
- arxiv url: http://arxiv.org/abs/2412.05127v1
- Date: Fri, 06 Dec 2024 15:35:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:56:28.373639
- Title: The Prompt Canvas: A Literature-Based Practitioner Guide for Creating Effective Prompts in Large Language Models
- Title(参考訳): Prompt Canvas:大規模言語モデルで効果的なPromptを作成するための文献ベースの実践ガイド
- Authors: Michael Hewing, Vincent Leinhos,
- Abstract要約: 本稿では,既存の方法論を包括的に構築し,実践者のための包括的概要を構築するためのフレームワークの構築について論じる。
本稿では,プロンプト・キャンバス(Prompt Canvas)について述べる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: The rise of large language models (LLMs) has highlighted the importance of prompt engineering as a crucial technique for optimizing model outputs. While experimentation with various prompting methods, such as Few-shot, Chain-of-Thought, and role-based techniques, has yielded promising results, these advancements remain fragmented across academic papers, blog posts and anecdotal experimentation. The lack of a single, unified resource to consolidate the field's knowledge impedes the progress of both research and practical application. This paper argues for the creation of an overarching framework that synthesizes existing methodologies into a cohesive overview for practitioners. Using a design-based research approach, we present the Prompt Canvas, a structured framework resulting from an extensive literature review on prompt engineering that captures current knowledge and expertise. By combining the conceptual foundations and practical strategies identified in prompt engineering, the Prompt Canvas provides a practical approach for leveraging the potential of Large Language Models. It is primarily designed as a learning resource for pupils, students and employees, offering a structured introduction to prompt engineering. This work aims to contribute to the growing discourse on prompt engineering by establishing a unified methodology for researchers and providing guidance for practitioners.
- Abstract(参考訳): 大規模言語モデル(LLM)の台頭は、モデル出力を最適化するための重要な技術として、プロンプトエンジニアリングの重要性を強調している。
Few-shot、Chain-of-Thought、ロールベースのテクニックといった様々なプロンプト手法の実験は有望な結果をもたらしたが、これらの進歩は学術論文、ブログ投稿、逸話実験で断片化されている。
分野の知識を統合するための単一の統一されたリソースが欠如していることは、研究と実践の両方の進歩を妨げている。
本稿では,既存の方法論を包括的に構築し,実践者のための包括的概要を構築するためのフレームワークの構築について論じる。
設計に基づく研究手法を用いて、現在の知識と専門知識を捉えるプロンプトエンジニアリングに関する広範な文献レビューから得られた構造化フレームワークであるPrompt Canvasを提案する。
Prompt Canvasは、概念基盤と迅速なエンジニアリングで特定された実践的戦略を組み合わせることで、大規模言語モデルの可能性を活用するための実践的なアプローチを提供する。
主に学生、学生、従業員の学習資源として設計され、素早いエンジニアリングのための構造化された紹介を提供する。
本研究は,研究者の統一的方法論を確立し,実践者への指導を提供することによって,迅速な工学に関する言説の高まりに寄与することを目的とする。
関連論文リスト
- Model-Guided Fieldwork: A Practical, Methodological and Philosophical Investigation in the use of Ethnomethodology for Engineering Software Requirements [0.0]
この論文は、ソフトウェア要件のエンジニアリングにエスノメソドロジーのフィールドワークを使うことに焦点を当てている。
技術開発プロセスに寄与する可能性のある観察を行うためのフィールドワーカーを支援するために,モデルガイドフィールドワーク(Model Guided Fieldwork)というアプローチを提案する。
論文 参考訳(メタデータ) (2024-11-14T09:24:56Z) - A Survey on Model MoErging: Recycling and Routing Among Specialized Experts for Collaborative Learning [136.89318317245855]
MoErgingは、専門家のモデルをリサイクルして、パフォーマンスや一般化を改善した集約システムを構築することを目的としている。
MoErgingメソッドの重要なコンポーネントは、特定の入力やアプリケーションに使用する専門家モデルを決定するルータの作成である。
このサーベイには、キーデザインの選択をカタログ化し、各手法に適した適用方法を明確にするための新しい分類が含まれている。
論文 参考訳(メタデータ) (2024-08-13T17:49:00Z) - Inference Optimizations for Large Language Models: Effects, Challenges, and Practical Considerations [0.0]
大規模な言語モデルは自然言語処理においてユビキタスである。
本稿では,資源要件の低減と大規模言語モデルの圧縮に関する諸技術について概説する。
論文 参考訳(メタデータ) (2024-08-06T12:07:32Z) - An Empirical Categorization of Prompting Techniques for Large Language
Models: A Practitioner's Guide [0.34530027457862006]
本研究では,学術的,実践的両面から最もよく知られたプロンプト技術について検討する。
本稿では,それぞれのカテゴリについて概説し,その独特な貢献を明確化し,実践的応用について紹介する。
論文 参考訳(メタデータ) (2024-02-18T23:03:56Z) - A Systematic Survey of Prompt Engineering in Large Language Models:
Techniques and Applications [11.568575664316143]
本稿では,応用分野別に分類した,最近のプロンプト工学の進歩について概説する。
本稿では、プロンプト手法、その応用、関連するモデル、利用したデータセットについて詳述する。
この体系的な分析は、この急速に発展している分野をよりよく理解し、オープンな課題と迅速なエンジニアリングの機会を照明することによって将来の研究を促進する。
論文 参考訳(メタデータ) (2024-02-05T19:49:13Z) - Unleashing the potential of prompt engineering in Large Language Models: a comprehensive review [1.6006550105523192]
大規模言語モデル(LLM)の能力を解き放つ上で,迅速なエンジニアリングが果たす重要な役割を概観する
自己整合性、思考の連鎖、そして生成された知識などの技術を含む、素早い工学の基礎的方法論と先進的な方法論の両方を検査する。
レビューはまた、AI能力の進歩におけるエンジニアリングの急進的な役割を反映し、将来の研究と応用のための構造化されたフレームワークを提供する。
論文 参考訳(メタデータ) (2023-10-23T09:15:18Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Review of Large Vision Models and Visual Prompt Engineering [50.63394642549947]
レビューは、大きな視覚モデルと視覚プロンプトエンジニアリングのためにコンピュータビジョン領域で使用される手法を要約することを目的としている。
本稿では、視覚領域における影響力のある大規模モデルと、これらのモデルに使用される一連のプロンプトエンジニアリング手法を提案する。
論文 参考訳(メタデータ) (2023-07-03T08:48:49Z) - Knowledge-Aware Bayesian Deep Topic Model [50.58975785318575]
本稿では,事前知識を階層型トピックモデリングに組み込むベイズ生成モデルを提案する。
提案モデルでは,事前知識を効率的に統合し,階層的なトピック発見と文書表現の両面を改善する。
論文 参考訳(メタデータ) (2022-09-20T09:16:05Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。