論文の概要: Prompt Engineering: How Prompt Vocabulary affects Domain Knowledge
- arxiv url: http://arxiv.org/abs/2505.17037v1
- Date: Sat, 10 May 2025 08:40:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-01 23:16:01.375586
- Title: Prompt Engineering: How Prompt Vocabulary affects Domain Knowledge
- Title(参考訳): Prompt Engineering: Prompt Vocabularyのドメイン知識への影響
- Authors: Dimitri Schreiter,
- Abstract要約: この論文は、語彙の特異性の増大がドメイン固有の質問応答および推論タスクを改善するかどうかを論じる。
名詞,動詞,形容詞を様々な特異度で体系的に代用する同義化フレームワークを開発し,四大言語モデル(LLM)への影響を測定した。
以上の結果から,全般的にプロンプトの特異性を高めることは大きな影響を与えないが,LLMが最善を尽くすと考えられるすべてのモデルに対して,特異性の範囲が存在することが明らかとなった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Prompt engineering has emerged as a critical component in optimizing large language models (LLMs) for domain-specific tasks. However, the role of prompt specificity, especially in domains like STEM (physics, chemistry, biology, computer science and mathematics), medicine, and law, remains underexplored. This thesis addresses the problem of whether increasing the specificity of vocabulary in prompts improves LLM performance in domain-specific question-answering and reasoning tasks. We developed a synonymization framework to systematically substitute nouns, verbs, and adjectives with varying specificity levels, measuring the impact on four LLMs: Llama-3.1-70B-Instruct, Granite-13B-Instruct-V2, Flan-T5-XL, and Mistral-Large 2, across datasets in STEM, law, and medicine. Our results reveal that while generally increasing the specificity of prompts does not have a significant impact, there appears to be a specificity range, across all considered models, where the LLM performs the best. Identifying this optimal specificity range offers a key insight for prompt design, suggesting that manipulating prompts within this range could maximize LLM performance and lead to more efficient applications in specialized domains.
- Abstract(参考訳): Prompt Engineeringは、大規模言語モデル(LLM)をドメイン固有のタスクに最適化する重要なコンポーネントとして登場した。
しかし、特にSTEM(物理学、化学、生物学、計算機科学、数学)、医学、法学などの分野において、迅速な特異性の役割は未解明のままである。
この論文は、語彙の特異性を高めることで、ドメイン固有の質問応答および推論タスクにおけるLLM性能が向上するかどうかを論じる。
Llama-3.1-70B-Instruct、Granite-13B-Instruct-V2、Flan-T5-XL、Mistral-Large 2の4つのLLMに対する影響をSTEM、法、医学のデータセット間で系統的に置換する同義語フレームワークを開発した。
以上の結果から,全般的にプロンプトの特異性を高めることは大きな影響を与えないが,LLMが最善を尽くすと考えられるすべてのモデルに対して,特異性の範囲が存在することが明らかとなった。
この最適特異性範囲の同定は、プロンプト設計の重要な洞察を与え、この範囲内でのプロンプトの操作がLLM性能を最大化し、特殊領域でのより効率的な応用につながることを示唆している。
関連論文リスト
- Diverse Prompts: Illuminating the Prompt Space of Large Language Models with MAP-Elites [2.529560284922988]
この研究は、文脈自由文法(CFG)とMAP-Elitesアルゴリズムを組み合わせてプロンプト空間を探索する進化的アプローチを導入する。
提案手法は品質と多様性を優先し,高性能で構造的に異なるプロンプトを生成する。
論文 参考訳(メタデータ) (2025-04-19T17:50:34Z) - Tag-LLM: Repurposing General-Purpose LLMs for Specialized Domains [9.600277231719874]
大規模言語モデル(LLM)は、自然言語の理解と生成に顕著な能力を示した。
本研究は、汎用LLMを特殊領域の効率的なタスク解決器に再利用する方法を探求する。
論文 参考訳(メタデータ) (2024-02-06T20:11:54Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。