論文の概要: Exploring the Impact of Occupational Personas on Domain-Specific QA
- arxiv url: http://arxiv.org/abs/2505.24448v1
- Date: Fri, 30 May 2025 10:35:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.90591
- Title: Exploring the Impact of Occupational Personas on Domain-Specific QA
- Title(参考訳): 職業的ペルソナがドメイン特有QAに及ぼす影響を探る
- Authors: Eojin Kang, Jaehyuk Yu, Juae Kim,
- Abstract要約: 本研究では, PBP (Professional Personality-Based Personas) とOPBP (Occupational Personality-Based Personas) の2つのタイプのペルソナを導入して, 専門的なQAパフォーマンスを高めるか分析する。
PBPは精度をわずかに向上できるが、OPBPはタスクに意味論的に関係していても性能を劣化させることがある。
本研究は,ペルソナ関連性だけでは効果的な知識利用を保証せず,最適な知識応用を妨げる認知的制約を課すことを示唆している。
- 参考スコア(独自算出の注目度): 3.3590922002216193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies on personas have improved the way Large Language Models (LLMs) interact with users. However, the effect of personas on domain-specific question-answering (QA) tasks remains a subject of debate. This study analyzes whether personas enhance specialized QA performance by introducing two types of persona: Profession-Based Personas (PBPs) (e.g., scientist), which directly relate to domain expertise, and Occupational Personality-Based Personas (OPBPs) (e.g., scientific person), which reflect cognitive tendencies rather than explicit expertise. Through empirical evaluations across multiple scientific domains, we demonstrate that while PBPs can slightly improve accuracy, OPBPs often degrade performance, even when semantically related to the task. Our findings suggest that persona relevance alone does not guarantee effective knowledge utilization and that they may impose cognitive constraints that hinder optimal knowledge application. Future research can explore how nuanced distinctions in persona representations guide LLMs, potentially contributing to reasoning and knowledge retrieval that more closely mirror human social conceptualization.
- Abstract(参考訳): 近年のペルソナ研究により,Large Language Models (LLM) がユーザと対話する方法が改善されている。
しかし、ドメイン固有の質問応答(QA)タスクに対するペルソナの影響は議論の的となっている。
本研究は, 専門知識に直接関係する専門的人格 (PBP) と, 専門知識ではなく認知傾向を反映した職業的人格 (OPBP) の2つのタイプの人格を導入することによって, 専門的QA能力を高めるか否かを分析する。
複数の科学的領域にわたる経験的評価により、PBPは精度をわずかに改善できるが、OPBPはタスクに意味論的に関連していても、しばしば性能を低下させることを示した。
本研究は,ペルソナ関連性だけでは効果的な知識利用を保証せず,最適な知識応用を妨げる認知的制約を課すことを示唆している。
今後の研究は、人格表現におけるニュアンスドの区別が、人間の社会的概念化をより密接に反映する推論と知識の検索に寄与する可能性について考察することができる。
関連論文リスト
- Two Experts Are All You Need for Steering Thinking: Reinforcing Cognitive Effort in MoE Reasoning Models Without Additional Training [86.70255651945602]
我々はReinforcecing Cognitive Experts(RICE)と呼ばれる新しい推論時ステアリング手法を導入する。
RICEは、追加のトレーニングや複雑化なしに推論のパフォーマンスを改善することを目的としている。
先行する MoE ベースの LRM を用いた経験的評価は、推論精度、認知効率、ドメイン間の一般化において顕著で一貫した改善を示す。
論文 参考訳(メタデータ) (2025-05-20T17:59:16Z) - PersonaFlow: Boosting Research Ideation with LLM-Simulated Expert Personas [12.593617990325528]
研究アイデアを支援するためにペルソナシミュレーションを用いたLLMシステムであるペルソナフローを紹介する。
以上の結果から,複数のペルソナをアイデア作成中に使用すると,ユーザ認識の質が著しく向上することが示唆された。
ユーザのペルソナカスタマイズインタラクションは、生成したアイデアのコントロールとリコールの感覚を大幅に改善した。
論文 参考訳(メタデータ) (2024-09-19T07:54:29Z) - Prompting Explicit and Implicit Knowledge for Multi-hop Question Answering Based on Human Reading Process [6.394137489788181]
心理学的研究は、通過中の明示的な情報と読書中の人間の事前知識の間に重要なつながりがあることを示唆している。
本稿では,明示的知識と暗黙的知識を結び付けるためにプロンプトを利用するPmpting Explicit and Implicit Knowledge (PEI)フレームワークを提案する。
我々のモデルは、暗黙の知識の形式であるプロンプトによる型固有の推論を取り入れている。
論文 参考訳(メタデータ) (2024-02-29T16:56:36Z) - From Heuristic to Analytic: Cognitively Motivated Strategies for
Coherent Physical Commonsense Reasoning [66.98861219674039]
ヒューリスティック分析推論(HAR)戦略は、モデル決定のための合理化のコヒーレンスを大幅に改善する。
以上の結果から, PLM推論の一貫性と信頼性を効果的に向上できる可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-24T19:46:04Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Interactive Natural Language Processing [67.87925315773924]
対話型自然言語処理(iNLP)は,NLP分野における新しいパラダイムとして登場した。
本稿では,iNLPの概念の統一的定義と枠組みを提案することから,iNLPに関する包括的調査を行う。
論文 参考訳(メタデータ) (2023-05-22T17:18:29Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z) - You Impress Me: Dialogue Generation via Mutual Persona Perception [62.89449096369027]
認知科学の研究は、理解が高品質なチャット会話に不可欠なシグナルであることを示唆している。
そこで我々は,P2 Botを提案する。このP2 Botは,理解を明示的にモデル化することを目的とした送信機受信者ベースのフレームワークである。
論文 参考訳(メタデータ) (2020-04-11T12:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。