論文の概要: Persona Alchemy: Designing, Evaluating, and Implementing Psychologically-Grounded LLM Agents for Diverse Stakeholder Representation
- arxiv url: http://arxiv.org/abs/2505.18351v1
- Date: Fri, 23 May 2025 20:18:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-03 14:01:52.822183
- Title: Persona Alchemy: Designing, Evaluating, and Implementing Psychologically-Grounded LLM Agents for Diverse Stakeholder Representation
- Title(参考訳): ペルソナ・アルケミー : 多様なステークホルダー表現のための心理的囲い込み LLM エージェントの設計・評価・実装
- Authors: Sola Kim, Dongjune Chang, Jieshu Wang,
- Abstract要約: 大規模言語モデル(LLM)のための社会認知理論(SCT)エージェント設計フレームワークについて紹介する。
本フレームワークは,SCTを設計のための4つの個人的要因(認知的,動機的,生物学的,感情的),評価のための6つの定量的構造,利害関係者のペルソナを実装するためのグラフデータベース支援アーキテクチャを通じて運用する。
- 参考スコア(独自算出の注目度): 0.9421843976231371
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Despite advances in designing personas for Large Language Models (LLM), challenges remain in aligning them with human cognitive processes and representing diverse stakeholder perspectives. We introduce a Social Cognitive Theory (SCT) agent design framework for designing, evaluating, and implementing psychologically grounded LLMs with consistent behavior. Our framework operationalizes SCT through four personal factors (cognitive, motivational, biological, and affective) for designing, six quantifiable constructs for evaluating, and a graph database-backed architecture for implementing stakeholder personas. Experiments tested agents' responses to contradicting information of varying reliability. In the highly polarized renewable energy transition discourse, we design five diverse agents with distinct ideologies, roles, and stakes to examine stakeholder representation. The evaluation of these agents in contradictory scenarios occurs through comprehensive processes that implement the SCT. Results show consistent response patterns ($R^2$ range: $0.58-0.61$) and systematic temporal development of SCT construct effects. Principal component analysis identifies two dimensions explaining $73$% of variance, validating the theoretical structure. Our framework offers improved explainability and reproducibility compared to black-box approaches. This work contributes to ongoing efforts to improve diverse stakeholder representation while maintaining psychological consistency in LLM personas.
- Abstract(参考訳): LLM(Large Language Models)のペルソナ設計の進歩にもかかわらず、人間の認知プロセスとの整合性には課題が残る。
本研究では,社会的認知論(SCT)のエージェント設計フレームワークを導入し,一貫した行動を伴う心理的基盤を持つLLMの設計,評価,実装を行う。
本フレームワークは,SCTを設計のための4つの個人的要因(認知的,動機的,生物学的,感情的),評価のための6つの定量的構造,利害関係者のペルソナを実装するためのグラフデータベース支援アーキテクチャを通じて運用する。
実験では、様々な信頼性の矛盾する情報に対するエージェントの反応をテストした。
高度に分極された再生可能エネルギー遷移談話では、ステークホルダーの表現を調べるために、異なるイデオロギー、役割、利害関係を持つ5つの多様なエージェントを設計する。
矛盾シナリオにおけるこれらのエージェントの評価は、SCTを実装する包括的なプロセスを通して行われる。
その結果、一貫した応答パターン(R^2$範囲:$0.58-0.61$)とSCT構築効果の系統的時間的発達を示す。
主成分分析は、分散の73ドル%を説明する2つの次元を特定し、理論構造を検証している。
我々のフレームワークはブラックボックスアプローチと比較して説明可能性と再現性が改善されている。
この研究は、LLMペルソナにおける心理的一貫性を維持しつつ、多様な利害関係者の表現を改善するための継続的な努力に寄与する。
関連論文リスト
- Adversarial Testing in LLMs: Insights into Decision-Making Vulnerabilities [5.0778942095543576]
本稿では,大規模言語モデルの意思決定過程を体系的にストレステストする逆評価フレームワークを提案する。
我々は、GPT-3.5、GPT-4、Gemini-1.5、DeepSeek-V3など、最先端のLLMに適用する。
我々の研究は、モデル間で異なる行動パターンを強調し、信頼できるAIデプロイメントにおける適応性と公平性認識の重要性を強調した。
論文 参考訳(メタデータ) (2025-05-19T14:50:44Z) - How Metacognitive Architectures Remember Their Own Thoughts: A Systematic Review [16.35521789216079]
計算メタ認知アーキテクチャ(CMA)がどのようにしてメタ認知経験をモデル化し、保存し、記憶し、処理するかをレビューする。
基礎となる心理学理論から収集データの内容と構造、使用するアルゴリズムや評価結果まで、さまざまな側面を考察する。
論文 参考訳(メタデータ) (2025-02-28T08:48:41Z) - A Cognitive Paradigm Approach to Probe the Perception-Reasoning Interface in VLMs [3.2228025627337864]
本稿では,視覚言語モデル(VLM)における知覚推論インタフェースを識別するための構造化評価フレームワークを提案する。
本稿では,人間の問題解決戦略を反映した3つの評価パラダイムを提案する。
このフレームワークを適用したCAは、リッチで独立に生成された記述を推論するために強力な言語モデルを活用し、新しい最先端(SOTA)パフォーマンスを実現することを実証する。
論文 参考訳(メタデータ) (2025-01-23T12:42:42Z) - Do as We Do, Not as You Think: the Conformity of Large Language Models [46.23852835759767]
本稿では,大規模言語モデル(LLM)による協調型AIシステムにおける適合性について述べる。
適合性の存在、適合性に影響を与える要因、潜在的な緩和戦略の3つの側面に焦点を当てる。
本分析では, 相互作用時間や過半数サイズなど, 適合性に影響を与える要因を解明し, 対象エージェントが適合行動をどのように合理化するかを検討する。
論文 参考訳(メタデータ) (2025-01-23T04:50:03Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - MR-GSM8K: A Meta-Reasoning Benchmark for Large Language Model Evaluation [60.65820977963331]
大規模言語モデル(LLM)のための新しい評価パラダイムを導入する。
このパラダイムは、しばしば推論プロセスを無視する結果指向の評価から、より包括的な評価へと重点を移す。
GSM8Kデータセットにこのパラダイムを適用し,MR-GSM8Kベンチマークを開発した。
論文 参考訳(メタデータ) (2023-12-28T15:49:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。