論文の概要: Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality
- arxiv url: http://arxiv.org/abs/2603.06088v1
- Date: Fri, 06 Mar 2026 09:42:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:45.498848
- Title: Experiences Build Characters: The Linguistic Origins and Functional Impact of LLM Personality
- Title(参考訳): 構築キャラクタの経験:LLMパーソナリティの言語的起源と機能的影響
- Authors: Xi Wang, Mengdie Zhuang, Jiqun Liu,
- Abstract要約: 本研究は、教師なしの方法でモデルをドメイン固有のテキストに公開するために、継続事前学習を採用する。
モデル変異の性格特性を定量化し,それらの言語的スタイルと推論行動との関係を解析する。
この結果は、モデル能力がバイモーダルであり、"Expressive Generalists" と "Suppressed Specialists" がピークであることを示している。
- 参考スコア(独自算出の注目度): 10.56924140369377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human problem-solving is enriched by a diversity of styles and personality traits, yet the development of Large Language Models (LLMs) has largely prioritized uniform performance benchmarks that favour specific behavioural tendencies such as assertiveness. To investigate how diverse experiences shape machine personality and influence problem-solving, this study employs continued pre-training to expose models to domain-specific texts in an unsupervised manner, simulating the accumulation of experience. By adapting the Big Five framework via the Machine Personality Inventory (MPI), we quantify the personality traits of these model variants and analyse their relationship to linguistic style and reasoning behaviour. The findings reveal that model competence is bimodal, peaking at "Expressive Generalists" and "Suppressed Specialists," while identifying a "Suppression Advantage" where reduced social traits enhance complex reasoning performance. This study further establishes a causal link between training data linguistics, such as imperative frequency, and lexical diversity, providing a roadmap for "Personality Engineering".
- Abstract(参考訳): 人間の問題解決はスタイルや性格の特徴の多様性に富んでいるが、Large Language Models (LLMs) の開発は、アサーションのような特定の行動傾向を優先する一様パフォーマンスベンチマークを主に優先している。
本研究は, マシンの個性を多様に形成し, 課題解決に影響を及ぼすかを検討するため, ドメイン固有のテキストにモデルを公開するための事前学習を行い, 経験の蓄積をシミュレートする。
機械的パーソナリティ・インベントリ(MPI)を介してBig Fiveフレームワークを適用することにより、これらのモデル変異の性格特性を定量化し、言語的スタイルと推論行動との関係を分析する。
その結果、モデル能力はバイモーダルであり、"Expressive Generalists" と "Suppressed Specialists" をピークとし、社会的特性の低下によって複雑な推論性能が向上する"Suppression Advantage" を特定した。
本研究は、インペラティブ周波数や語彙多様性などの学習データ言語学の因果関係を確立し、「パーソナリティ・エンジニアリング」のロードマップを提供する。
関連論文リスト
- Enhancing Personality Recognition by Comparing the Predictive Power of Traits, Facets, and Nuances [37.83859643892549]
パーソナリティ認識モデルは、行動データから性格特性を推定することを目的としている。
モーダル間(音響)とオブジェクト間(ダイアド・アウェア)のアテンション機構を含むトランスフォーマーベースモデルを訓練した。
その結果、ニュアンスレベルのモデルはファセットやトラストレベルのモデルよりも一貫して優れており、平均2乗誤差を最大74%削減できることがわかった。
論文 参考訳(メタデータ) (2026-02-05T13:35:04Z) - A Comparative Study of Large Language Models and Human Personality Traits [6.354326674890978]
言語モデル(LLM)は、言語理解と生成において人間のような能力を示す。
本研究では, LLMが人格的特徴を示すか, これらの特徴が人格とどのように比較されるかを検討する。
論文 参考訳(メタデータ) (2025-05-01T15:10:15Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
データ構築とモデルチューニングを改善するためのフレームワークPersLLMを提案する。
データ利用が不十分な場合には、Chain-of-Thoughtプロンプトやアンチインダクションといった戦略を取り入れます。
厳密な振舞いパターンを設計し,モデルの性格の特異性とダイナミズムを高めるために自動DPOを導入する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - P-React: Synthesizing Topic-Adaptive Reactions of Personality Traits via Mixture of Specialized LoRA Experts [34.374681921626205]
我々は、専門家(MoE)をベースとしたパーソナライズされた大規模言語モデルであるP-Reactを提案する。
特に、パーソナリティ・ロス(PSL)を統合して、個々の特徴表現をよりよく捉えます。
この分野での研究を容易にするため、高品質で人間認証されたデータセットであるOCEAN-Chatをキュレートする。
論文 参考訳(メタデータ) (2024-06-18T12:25:13Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。