論文の概要: Decoding Emergent Big Five Traits in Large Language Models: Temperature-Dependent Expression and Architectural Clustering
- arxiv url: http://arxiv.org/abs/2511.04499v1
- Date: Thu, 06 Nov 2025 16:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-07 20:17:53.496677
- Title: Decoding Emergent Big Five Traits in Large Language Models: Temperature-Dependent Expression and Architectural Clustering
- Title(参考訳): 大規模言語モデルにおける創発的5大特徴のデコード:温度依存表現とアーキテクチャクラスタリング
- Authors: Christos-Nikolaos Zacharopoulos, Revekka Kyriakoglou,
- Abstract要約: 本稿では,6つの大言語モデル(LLM)を体系的に評価する。
Big Five Inventory-2 フレームワークを応用し、様々なサンプリング温度下で特性表現を評価する。
5つの人格次元のうち4つに有意な差がみられ, 体温調整による神経症と外転がみられた。
- 参考スコア(独自算出の注目度): 0.11458853556386796
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As Large Language Models (LLMs) become integral to human-centered applications, understanding their personality-like behaviors is increasingly important for responsible development and deployment. This paper systematically evaluates six LLMs, applying the Big Five Inventory-2 (BFI-2) framework, to assess trait expressions under varying sampling temperatures. We find significant differences across four of the five personality dimensions, with Neuroticism and Extraversion susceptible to temperature adjustments. Further, hierarchical clustering reveals distinct model clusters, suggesting that architectural features may predispose certain models toward stable trait profiles. Taken together, these results offer new insights into the emergence of personality-like patterns in LLMs and provide a new perspective on model tuning, selection, and the ethical governance of AI systems. We share the data and code for this analysis here: https://osf.io/bsvzc/?view_only=6672219bede24b4e875097426dc3fac1
- Abstract(参考訳): 大規模言語モデル(LLM)が人間中心のアプリケーションにとって不可欠なものとなるにつれ、人格的な振る舞いを理解することは、開発とデプロイメントの責任を負う上でますます重要である。
本稿では,6つのLCMをBFI-2 (Big Five Inventory-2) フレームワークを用いて,異なるサンプリング温度下での特性表現の評価を行う。
5つの人格次元のうち4つに有意な差がみられ, 体温調整による神経症と外転がみられた。
さらに階層的なクラスタリングでは、異なるモデルクラスタが明らかになり、アーキテクチャ上の特徴は、安定した特性プロファイルに向けて特定のモデルをプリセットする可能性があることを示唆している。
これらの結果は、LLMにおけるパーソナリティに似たパターンの出現に関する新たな洞察を与え、モデルチューニング、選択、AIシステムの倫理的ガバナンスに関する新たな視点を提供する。
この分析のデータとコードを以下に公開します。
view_only=6672219bede24b4e875097426dc3fac1
関連論文リスト
- Large Language Model Sourcing: A Survey [84.63438376832471]
大規模言語モデル(LLM)は人工知能に革命をもたらし、目的的タスクのサポートから主観的な意思決定の強化へと移行した。
LLMのブラックボックスの性質と生成したコンテンツの人間的品質のため、幻覚、偏見、不公平さ、著作権侵害などの問題が重要になる。
本研究は,4つの相互関連次元を中心に整理されたLCMによるコンテンツの出所追跡について,系統的研究を行った。
論文 参考訳(メタデータ) (2025-10-11T10:52:30Z) - Behavioral Fingerprinting of Large Language Models [35.18856642496912]
現在のLLM(Large Language Models)のベンチマークは主にパフォーマンス指標に焦点を当てている。
本稿では,従来の評価を超越した行動フィンガープリントの枠組みを提案する。
論文 参考訳(メタデータ) (2025-09-02T07:03:20Z) - HuggingGraph: Understanding the Supply Chain of LLM Ecosystem [6.131279654327215]
大規模言語モデル(LLM)は、単語のシーケンスを処理および予測するためにディープラーニングアーキテクチャを活用する。
LLMは、以前のモデルやデータセットに存在する脆弱性やバイアス、悪意のあるコンポーネントを継承することができる。
このプロジェクトの目的は、モデルとデータセットの関係を研究することである。
論文 参考訳(メタデータ) (2025-07-17T17:34:13Z) - Do Vision-Language Models Have Internal World Models? Towards an Atomic Evaluation [54.3628937181904]
内部世界モデル(英語版)(WM)は、エージェントが世界の状態を理解し、遷移を予測することを可能にする。
近年,OpenAI o3, GPT-4o, Geminiなどの大規模視覚言語モデル(VLM)は汎用的なWMとしての可能性を示している。
論文 参考訳(メタデータ) (2025-06-27T03:24:29Z) - SAC: A Framework for Measuring and Inducing Personality Traits in LLMs with Dynamic Intensity Control [1.9282110216621835]
大規模言語モデル(LLM)は近年,幅広い分野において大きな注目を集めている。
また、対話中に人間のような個性を表示するという期待も高まりつつある。
既存のモデルは2つの大きな制限に直面している。それらは、粗いパーソナリティ次元のみを提供するBig Five (OCEAN)フレームワークに依存しており、特性強度を制御するメカニズムが欠如している。
論文 参考訳(メタデータ) (2025-06-26T04:12:15Z) - Rediscovering the Latent Dimensions of Personality with Large Language Models as Trait Descriptors [4.814107439144414]
大規模言語モデル(LLM)における潜在人格次元を明らかにする新しいアプローチを提案する。
実験の結果, LLMは, 直接アンケート入力に頼ることなく, 外転, 同意性, 良性, 神経性, 開放性などの中核的性格を「発見」することがわかった。
抽出した主成分を用いて、ビッグファイブ次元に沿ったパーソナリティを評価し、微調整モデルよりも平均的なパーソナリティ予測精度を最大5%向上させることができる。
論文 参考訳(メタデータ) (2024-09-16T00:24:40Z) - Eliciting Personality Traits in Large Language Models [0.0]
大規模言語モデル(LLM)は採用の文脈において、候補者と雇用主の両方が利用している。
本研究は,異なる入力プロンプトに基づいて,それらの出力変動を調べることによって,そのようなモデルをよりよく理解することを目的とする。
論文 参考訳(メタデータ) (2024-02-13T10:09:00Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。