論文の概要: The Impact of Role Design in In-Context Learning for Large Language Models
- arxiv url: http://arxiv.org/abs/2509.23501v1
- Date: Sat, 27 Sep 2025 21:15:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.264787
- Title: The Impact of Role Design in In-Context Learning for Large Language Models
- Title(参考訳): 大規模言語モデルにおけるインコンテキスト学習における役割設計の影響
- Authors: Hamidreza Rouzegar, Masoud Makrehchi,
- Abstract要約: In-context Learning (ICL) により、Large Language Models (LLM) は、追加の微調整なしでプロンプトに基づいて予測を生成することができる。
本研究では, OpenAI の GPT-3.5 と GPT-4o と Meta の Llama2-7b と Llama2-13b を用いたゼロショットおよび少数ショット学習シナリオにおける役割構成の影響について検討した。
- 参考スコア(独自算出の注目度): 1.3177681589844814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning (ICL) enables Large Language Models (LLMs) to generate predictions based on prompts without additional fine-tuning. While prompt engineering has been widely studied, the impact of role design within prompts remains underexplored. This study examines the influence of role configurations in zero-shot and few-shot learning scenarios using GPT-3.5 and GPT-4o from OpenAI and Llama2-7b and Llama2-13b from Meta. We evaluate the models' performance across datasets, focusing on tasks like sentiment analysis, text classification, question answering, and math reasoning. Our findings suggest the potential of role-based prompt structuring to enhance LLM performance.
- Abstract(参考訳): In-context Learning (ICL) により、Large Language Models (LLM) は、追加の微調整なしでプロンプトに基づいて予測を生成することができる。
プロンプトエンジニアリングは広く研究されているが、プロンプトにおけるロールデザインの影響は未解明のままである。
本研究では, OpenAI の GPT-3.5 と GPT-4o と Meta の Llama2-7b と Llama2-13b を用いたゼロショットおよび少数ショット学習シナリオにおける役割構成の影響について検討した。
モデルの性能をデータセット間で評価し、感情分析、テキスト分類、質問応答、数学推論といったタスクに焦点をあてる。
以上の結果から,LLM性能を高めるために,役割ベースのプロンプト構造化の可能性が示唆された。
関連論文リスト
- Evaluating Linguistic Capabilities of Multimodal LLMs in the Lens of Few-Shot Learning [15.919493497867567]
本研究では,VALSEベンチマークを用いたマルチモーダル大規模言語モデル(MLLM)の性能評価を目的とした。
我々は,モデルサイズや事前学習データセットの異なる最先端MLLMの包括的評価を行った。
論文 参考訳(メタデータ) (2024-07-17T11:26:47Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。