論文の概要: PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions
- arxiv url: http://arxiv.org/abs/2509.07370v1
- Date: Tue, 09 Sep 2025 03:39:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-10 14:38:27.176419
- Title: PersonaFuse: A Personality Activation-Driven Framework for Enhancing Human-LLM Interactions
- Title(参考訳): PersonaFuse:人間とLLMのインタラクションを強化するパーソナリティアクティベーション駆動フレームワーク
- Authors: Yixuan Tang, Yi Yang, Ahmed Abbasi,
- Abstract要約: PersonaFuseは、大規模言語モデルが異なるパーソナリティを適応し表現できるようにする新しいフレームワークである。
テストでは、PersonaFuseは、社会的感情知性の多次元にわたるベースラインモデルを大幅に上回っている。
PersonaFuseは、下流の人間中心のアプリケーションでも一貫した改善を提供する。
- 参考スコア(独自算出の注目度): 14.497181581363288
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent advancements in Large Language Models (LLMs) demonstrate remarkable capabilities across various fields. These developments have led to more direct communication between humans and LLMs in various situations, such as social companionship and psychological support. However, LLMs often exhibit limitations in emotional perception and social competence during real-world conversations. These limitations partly originate from their inability to adapt their communication style and emotional expression to different social and task contexts. In this work, we introduce PersonaFuse, a novel LLM post-training framework that enables LLMs to adapt and express different personalities for varying situations. Inspired by Trait Activation Theory and the Big Five personality model, PersonaFuse employs a Mixture-of-Expert architecture that combines persona adapters with a dynamic routing network, enabling contextual trait expression. Experimental results show that PersonaFuse substantially outperforms baseline models across multiple dimensions of social-emotional intelligence. Importantly, these gains are achieved without sacrificing general reasoning ability or model safety, which remain common limitations of direct prompting and supervised fine-tuning approaches. PersonaFuse also delivers consistent improvements in downstream human-centered applications, such as mental health counseling and review-based customer service. Finally, human preference evaluations against leading LLMs, including GPT-4o and DeepSeek, demonstrate that PersonaFuse achieves competitive response quality despite its comparatively smaller model size. These findings demonstrate that PersonaFuse~offers a theoretically grounded and practical approach for developing social-emotional enhanced LLMs, marking a significant advancement toward more human-centric AI systems.
- Abstract(参考訳): 近年のLarge Language Models (LLM) の進歩は、様々な分野において顕著な能力を示している。
これらの発展は、社会的協力や心理的支援など、様々な状況において、人間とLLMの間でより直接的なコミュニケーションをもたらしている。
しかし、LLMは現実世界の会話において、感情的な知覚と社会的能力の限界をしばしば示している。
これらの制限は、コミュニケーションスタイルと感情表現を異なる社会的・タスクコンテキストに適応できないことに由来する。
本稿では, LLMが様々な状況において, 異なる個性に適応し, 表現できる新しいLLMポストトレーニングフレームワークであるPersonaFuseを紹介する。
Trait Activation TheoryとBig FiveパーソナリティモデルにインスパイアされたPersonaFuseは、ペルソナアダプタと動的ルーティングネットワークを組み合わせたMixture-of-Expertアーキテクチャを採用し、コンテキスト特性表現を可能にする。
実験の結果,PersonaFuseは社会感情知能の多次元にわたるベースラインモデルを大幅に上回ることがわかった。
重要なことに、これらの利得は一般的な推論能力やモデル安全性を犠牲にすることなく達成される。
PersonaFuseはまた、メンタルヘルスカウンセリングやレビューベースのカスタマーサービスなど、下流の人間中心のアプリケーションに一貫した改善を提供する。
最後に、GPT-4oやDeepSeekを含む主要なLCMに対する人間の嗜好評価は、モデルサイズが比較的小さいにもかかわらず、PersonaFuseが競合する応答品質を達成することを示した。
これらの結果から,PersonaFuse~offersは社会的感情的強化LPMを開発するための理論的基礎と実践的なアプローチであり,より人間中心のAIシステムへの大きな進歩を示している。
関連論文リスト
- Word Synchronization Challenge: A Benchmark for Word Association Responses for LLMs [4.352318127577628]
本稿では,人-コンピュータインタラクション(HCI)における大規模言語モデル(LLM)を評価するための新しいベンチマークであるWord Synchronization Challengeを紹介する。
このベンチマークでは、動的ゲームライクなフレームワークを使用して、単語アソシエーションを通じて人間の認知プロセスを模倣するLLMの能力をテストする。
論文 参考訳(メタデータ) (2025-02-12T11:30:28Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。