論文の概要: The Impact of Role Design in In-Context Learning for Large Language Models
- arxiv url: http://arxiv.org/abs/2509.23501v1
- Date: Sat, 27 Sep 2025 21:15:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.264787
- Title: The Impact of Role Design in In-Context Learning for Large Language Models
- Title(参考訳): 大規模言語モデルにおけるインコンテキスト学習における役割設計の影響
- Authors: Hamidreza Rouzegar, Masoud Makrehchi,
- Abstract要約: In-context Learning (ICL) により、Large Language Models (LLM) は、追加の微調整なしでプロンプトに基づいて予測を生成することができる。
本研究では, OpenAI の GPT-3.5 と GPT-4o と Meta の Llama2-7b と Llama2-13b を用いたゼロショットおよび少数ショット学習シナリオにおける役割構成の影響について検討した。
- 参考スコア(独自算出の注目度): 1.3177681589844814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In-context learning (ICL) enables Large Language Models (LLMs) to generate predictions based on prompts without additional fine-tuning. While prompt engineering has been widely studied, the impact of role design within prompts remains underexplored. This study examines the influence of role configurations in zero-shot and few-shot learning scenarios using GPT-3.5 and GPT-4o from OpenAI and Llama2-7b and Llama2-13b from Meta. We evaluate the models' performance across datasets, focusing on tasks like sentiment analysis, text classification, question answering, and math reasoning. Our findings suggest the potential of role-based prompt structuring to enhance LLM performance.
- Abstract(参考訳): In-context Learning (ICL) により、Large Language Models (LLM) は、追加の微調整なしでプロンプトに基づいて予測を生成することができる。
プロンプトエンジニアリングは広く研究されているが、プロンプトにおけるロールデザインの影響は未解明のままである。
本研究では, OpenAI の GPT-3.5 と GPT-4o と Meta の Llama2-7b と Llama2-13b を用いたゼロショットおよび少数ショット学習シナリオにおける役割構成の影響について検討した。
モデルの性能をデータセット間で評価し、感情分析、テキスト分類、質問応答、数学推論といったタスクに焦点をあてる。
以上の結果から,LLM性能を高めるために,役割ベースのプロンプト構造化の可能性が示唆された。
関連論文リスト
- Effect of Document Packing on the Latent Multi-Hop Reasoning Capabilities of Large Language Models [62.81144398338974]
本研究では,文書パッケージング戦略の違いが,大規模言語モデルの潜在マルチホップ推論能力に与える影響について検討する。
この結果から,パッキングは個々の文書のトレーニングに比べて,より多くの計算処理を犠牲にして,モデル性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2025-12-16T14:16:23Z) - DETAIL Matters: Measuring the Impact of Prompt Specificity on Reasoning in Large Language Models [0.0]
本稿では,大規模言語モデル(LLM)を評価するためのフレームワークであるDETAILを紹介する。
我々は、GPT-4を用いてマルチレベルプロンプトを生成し、パープレキシティによる特異性を定量化し、GPTに基づく意味的等価性を用いて正当性を評価する。
GPT-4とO3-miniをまたいだ30の新たな推論タスクの実験では、特に小さなモデルや手続きタスクにおいて、特異性によって精度が向上することが示されている。
論文 参考訳(メタデータ) (2025-12-01T22:28:39Z) - From Parameters to Performance: A Data-Driven Study on LLM Structure and Development [73.67759647072519]
大規模言語モデル(LLM)は、様々な領域で大きな成功を収めている。
モデルスケールと能力の急激な成長にもかかわらず、構造構成がパフォーマンスに与える影響に関する体系的なデータ駆動の研究は依然として少ない。
多様なオープンソースLLM構造を含む大規模データセットと,その性能を複数のベンチマークで比較した。
論文 参考訳(メタデータ) (2025-09-14T12:20:39Z) - How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - An Analysis for Reasoning Bias of Language Models with Small Initialization [8.380004565348619]
大規模言語モデル(LLM)は、さまざまなタスクにまたがる例外的なパフォーマンスを示すことによって、自然言語処理に革命をもたらした。
本研究では,パラメータ初期化尺度がLLMの訓練行動とタスク嗜好に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2025-02-05T15:23:26Z) - Evaluating Linguistic Capabilities of Multimodal LLMs in the Lens of Few-Shot Learning [15.919493497867567]
本研究では,VALSEベンチマークを用いたマルチモーダル大規模言語モデル(MLLM)の性能評価を目的とした。
我々は,モデルサイズや事前学習データセットの異なる最先端MLLMの包括的評価を行った。
論文 参考訳(メタデータ) (2024-07-17T11:26:47Z) - Can Large Language Models Understand Context? [17.196362853457412]
本稿では,生成モデルの評価に適合する既存のデータセットを適応させることにより,文脈理解ベンチマークを提案する。
実験結果から, 事前学習された高密度モデルでは, 最先端の微調整モデルと比較して, よりニュアンスな文脈特徴の理解に苦慮していることが明らかとなった。
LLM圧縮は研究と実世界のアプリケーションの両方において重要度が高くなっているため、文脈学習環境下での量子化モデルの文脈理解を評価する。
論文 参考訳(メタデータ) (2024-02-01T18:55:29Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - SINC: Self-Supervised In-Context Learning for Vision-Language Tasks [64.44336003123102]
大規模言語モデルにおけるコンテキスト内学習を実現するためのフレームワークを提案する。
メタモデルは、カスタマイズされたデモからなる自己教師型プロンプトで学ぶことができる。
実験の結果、SINCは様々な視覚言語タスクにおいて勾配に基づく手法よりも優れていた。
論文 参考訳(メタデータ) (2023-07-15T08:33:08Z) - Scaling Evidence-based Instructional Design Expertise through Large
Language Models [0.0]
本稿では,大規模言語モデル(LLM),特にGPT-4を教育設計の分野で活用することを検討する。
本研究は,エビデンスに基づく教育設計の専門知識のスケールアップに着目し,理論教育学と実践実践のギャップを埋めることを目的としている。
我々は,AIによるコンテンツ生成のメリットと限界について論じ,教育資料の品質確保に人的監督が必要であることを強調した。
論文 参考訳(メタデータ) (2023-05-31T17:54:07Z) - Document-Level Machine Translation with Large Language Models [91.03359121149595]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクに対して、一貫性、凝集性、関連性、流動性のある回答を生成することができる。
本稿では,LLMの談話モデルにおける能力について詳細に評価する。
論文 参考訳(メタデータ) (2023-04-05T03:49:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。