論文の概要: Scaling Personality Control in LLMs with Big Five Scaler Prompts
- arxiv url: http://arxiv.org/abs/2508.06149v1
- Date: Fri, 08 Aug 2025 09:11:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.167
- Title: Scaling Personality Control in LLMs with Big Five Scaler Prompts
- Title(参考訳): ビッグ・ファイブ・スケーラ・プロンプトを用いたLDMのスケーリングパーソナリティ制御
- Authors: Gunhee Cho, Yun-Gyung Cheong,
- Abstract要約: 制御可能なパーソナリティ特性を持つ大規模言語モデルを条件付けるための,プロンプトベースのフレームワークであるBig5-Scalerを提案する。
自然言語のプロンプトに数値特性値を埋め込むことで,学習を伴わずに微粒なパーソナリティ制御が可能となる。
- 参考スコア(独自算出の注目度): 1.534667887016089
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present Big5-Scaler, a prompt-based framework for conditioning large language models (LLMs) with controllable Big Five personality traits. By embedding numeric trait values into natural language prompts, our method enables fine-grained personality control without additional training. We evaluate Big5-Scaler across trait expression, dialogue generation, and human trait imitation tasks. Results show that it induces consistent and distinguishable personality traits across models, with performance varying by prompt type and scale. Our analysis highlights the effectiveness of concise prompts and lower trait intensities, providing a efficient approach for building personality-aware dialogue agents.
- Abstract(参考訳): 制御可能なBig Fiveパーソナリティ特性を持つ大規模言語モデル(LLM)を条件付けるためのプロンプトベースのフレームワークであるBig5-Scalerを提案する。
自然言語のプロンプトに数値特性値を埋め込むことで,学習を伴わずに微粒なパーソナリティ制御が可能となる。
特徴表現,対話生成,人為的特徴模倣タスクにおけるBig5-Scalerの評価を行った。
その結果、モデル間での一貫性と区別可能な性格特性を誘導し、即時型とスケールによって性能が変化することが示された。
本分析は,人格認識型対話エージェント構築に有効な手法として,簡潔なプロンプトと低特性強度の有効性を強調した。
関連論文リスト
- SAC: A Framework for Measuring and Inducing Personality Traits in LLMs with Dynamic Intensity Control [1.9282110216621835]
大規模言語モデル(LLM)は近年,幅広い分野において大きな注目を集めている。
また、対話中に人間のような個性を表示するという期待も高まりつつある。
既存のモデルは2つの大きな制限に直面している。それらは、粗いパーソナリティ次元のみを提供するBig Five (OCEAN)フレームワークに依存しており、特性強度を制御するメカニズムが欠如している。
論文 参考訳(メタデータ) (2025-06-26T04:12:15Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - The Dark Patterns of Personalized Persuasion in Large Language Models: Exposing Persuasive Linguistic Features for Big Five Personality Traits in LLMs Responses [0.0]
我々は、ビッグファイブ・パーソナリティの様々なレベルにおけるパーソナリティに影響を与えるのに不可欠な13の言語的特徴を同定する。
モデルでは、不安関連語を神経症に用い、達成関連語を良心に用い、経験へのオープンネスのために認知過程語を減らしている。
論文 参考訳(メタデータ) (2024-11-08T23:02:59Z) - Rediscovering the Latent Dimensions of Personality with Large Language Models as Trait Descriptors [4.814107439144414]
大規模言語モデル(LLM)における潜在人格次元を明らかにする新しいアプローチを提案する。
実験の結果, LLMは, 直接アンケート入力に頼ることなく, 外転, 同意性, 良性, 神経性, 開放性などの中核的性格を「発見」することがわかった。
抽出した主成分を用いて、ビッグファイブ次元に沿ったパーソナリティを評価し、微調整モデルよりも平均的なパーソナリティ予測精度を最大5%向上させることができる。
論文 参考訳(メタデータ) (2024-09-16T00:24:40Z) - LLMvsSmall Model? Large Language Model Based Text Augmentation Enhanced
Personality Detection Model [58.887561071010985]
パーソナリティ検出は、ソーシャルメディア投稿に根ざした性格特性を検出することを目的としている。
既存のほとんどのメソッドは、事前訓練された言語モデルを微調整することで、ポスト機能を直接学習する。
本稿では,大規模言語モデル (LLM) に基づくテキスト拡張強化人格検出モデルを提案する。
論文 参考訳(メタデータ) (2024-03-12T12:10:18Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。