論文の概要: An Empirical Categorization of Prompting Techniques for Large Language
Models: A Practitioner's Guide
- arxiv url: http://arxiv.org/abs/2402.14837v1
- Date: Sun, 18 Feb 2024 23:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 19:38:28.774876
- Title: An Empirical Categorization of Prompting Techniques for Large Language
Models: A Practitioner's Guide
- Title(参考訳): 大規模言語モデルのためのプロンプト手法の実証的分類:実践者ガイド
- Authors: Oluwole Fagbohun, Rachel M. Harrison, Anton Dereventsov
- Abstract要約: 本研究では,学術的,実践的両面から最もよく知られたプロンプト技術について検討する。
本稿では,それぞれのカテゴリについて概説し,その独特な貢献を明確化し,実践的応用について紹介する。
- 参考スコア(独自算出の注目度): 0.34530027457862006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to rapid advancements in the development of Large Language Models (LLMs),
programming these models with prompts has recently gained significant
attention. However, the sheer number of available prompt engineering techniques
creates an overwhelming landscape for practitioners looking to utilize these
tools. For the most efficient and effective use of LLMs, it is important to
compile a comprehensive list of prompting techniques and establish a
standardized, interdisciplinary categorization framework. In this survey, we
examine some of the most well-known prompting techniques from both academic and
practical viewpoints and classify them into seven distinct categories. We
present an overview of each category, aiming to clarify their unique
contributions and showcase their practical applications in real-world examples
in order to equip fellow practitioners with a structured framework for
understanding and categorizing prompting techniques tailored to their specific
domains. We believe that this approach will help simplify the complex landscape
of prompt engineering and enable more effective utilization of LLMs in various
applications. By providing practitioners with a systematic approach to prompt
categorization, we aim to assist in navigating the intricacies of effective
prompt design for conversational pre-trained LLMs and inspire new possibilities
in their respective fields.
- Abstract(参考訳): 大規模言語モデル(llm)の開発が急速に進んでいるため、これらのモデルをプロンプトでプログラミングすることが最近大きな注目を集めている。
しかし、利用可能なプロンプトエンジニアリングテクニックの数が多く、これらのツールを使いたい実践者にとって圧倒的な景観を生み出します。
LLMの最も効率的かつ効果的な利用のためには、プロンプト技術の包括的なリストをコンパイルし、標準化された学際分類フレームワークを確立することが重要である。
本調査では,学術的,実践的両面から最もよく知られたプロンプト技術について検討し,それらを7つのカテゴリーに分類する。
本稿では,それぞれのカテゴリについて概説し,それぞれの分野に合わせたプロンプト技術を理解し,分類するための構造的枠組みを,実践者の実例で示すことを目的とする。
このアプローチは、迅速なエンジニアリングの複雑な景観を単純化し、様々なアプリケーションにおけるLLMのより効率的な利用を可能にする。
実践者に分類を急ぐための体系的なアプローチを提供することにより,対話型事前学習 LLM の効果的なプロンプト設計の複雑化を支援し,それぞれの分野に新たな可能性をもたらすことを目指す。
関連論文リスト
- The Prompt Canvas: A Literature-Based Practitioner Guide for Creating Effective Prompts in Large Language Models [0.0]
本稿では,既存の方法論を包括的に構築し,実践者のための包括的概要を構築するためのフレームワークの構築について論じる。
本稿では,プロンプト・キャンバス(Prompt Canvas)について述べる。
論文 参考訳(メタデータ) (2024-12-06T15:35:18Z) - Demystifying Large Language Models for Medicine: A Primer [50.83806796466396]
大規模言語モデル(LLM)は、医療のさまざまな側面に革命をもたらすことのできる、変革的なAIツールのクラスである。
本チュートリアルは、LSMを臨床実践に効果的に統合するために必要なツールを医療専門家に提供することを目的としている。
論文 参考訳(メタデータ) (2024-10-24T15:41:56Z) - The Prompt Report: A Systematic Survey of Prompting Techniques [42.618971816813385]
生成的人工知能システムは、様々な産業や研究領域に展開されつつある。
工学は矛盾する用語と 存在論的理解に苦しむ
本研究は,プロンプト技術と応用分析の分類を組み込むことにより,プロンプトエンジニアリングの構造化された理解を確立する。
論文 参考訳(メタデータ) (2024-06-06T18:10:11Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - Towards Generalist Prompting for Large Language Models by Mental Models [105.03747314550591]
大規模言語モデル(LLM)は多くのタスクにおいて素晴らしいパフォーマンスを示している。
最適な性能を達成するには、特別に設計されたプロンプト法が必要である。
本稿では,最適あるいは準最適性能を実現する設計原理に基づくジェネラリストプロンプトの概念を紹介する。
論文 参考訳(メタデータ) (2024-02-28T11:29:09Z) - A Systematic Survey of Prompt Engineering in Large Language Models:
Techniques and Applications [11.568575664316143]
本稿では,応用分野別に分類した,最近のプロンプト工学の進歩について概説する。
本稿では、プロンプト手法、その応用、関連するモデル、利用したデータセットについて詳述する。
この体系的な分析は、この急速に発展している分野をよりよく理解し、オープンな課題と迅速なエンジニアリングの機会を照明することによって将来の研究を促進する。
論文 参考訳(メタデータ) (2024-02-05T19:49:13Z) - Tapping the Potential of Large Language Models as Recommender Systems: A Comprehensive Framework and Empirical Analysis [91.5632751731927]
ChatGPTのような大規模言語モデルは、一般的なタスクを解く際、顕著な能力を示した。
本稿では,レコメンデーションタスクにおけるLLMの活用のための汎用フレームワークを提案し,レコメンデーションタスクとしてのLLMの機能に着目した。
提案手法は,提案手法が推薦結果に与える影響を解析し,提案手法とモデルアーキテクチャ,パラメータスケール,コンテキスト長について検討する。
論文 参考訳(メタデータ) (2024-01-10T08:28:56Z) - A Survey on Prompting Techniques in LLMs [0.0]
自己回帰型大規模言語モデルは自然言語処理のランドスケープに変化をもたらした。
本研究は,既存の文献の分類手法について紹介し,この分類法に基づく簡潔な調査を行う。
我々は、将来の研究の方向性として役立つ自己回帰型LSMの推進という領域において、いくつかの未解決の問題を特定した。
論文 参考訳(メタデータ) (2023-11-28T17:56:34Z) - A Practical Survey on Zero-shot Prompt Design for In-context Learning [0.0]
大規模言語モデル(LLM)は自然言語処理(NLP)タスクを大幅に改善した。
本稿では,異なる種類のプロンプトに着目した,コンテキスト内学習手法の総合的なレビューを行う。
本稿では,手動設計や最適化アルゴリズム,評価手法など,設計を促すための様々なアプローチについて検討する。
論文 参考訳(メタデータ) (2023-09-22T23:00:34Z) - LLM-Rec: Personalized Recommendation via Prompting Large Language Models [62.481065357472964]
大きな言語モデル(LLM)は、常識的な知識と推論を活用する能力を示した。
大規模言語モデル(LLM)の最近の進歩は、コモンセンスの知識と推論を活用できることを顕著に示している。
本研究では,パーソナライズされたテキストベースのレコメンデーションを改善するために,テキストエンリッチメントの4つの異なる促進戦略を取り入れた新しいアプローチ LLM-Rec を提案する。
論文 参考訳(メタデータ) (2023-07-24T18:47:38Z) - A Survey on Large Language Models for Recommendation [77.91673633328148]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野で強力なツールとして登場した。
本調査では,これらのモデルを2つの主要なパラダイム(DLLM4Rec)とジェネレーティブLSM4Rec(GLLM4Rec)に分類する。
論文 参考訳(メタデータ) (2023-05-31T13:51:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。