論文の概要: Beyond Fixed Psychological Personas: State Beats Trait, but Language Models are State-Blind
- arxiv url: http://arxiv.org/abs/2601.15395v1
- Date: Wed, 21 Jan 2026 19:06:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.389317
- Title: Beyond Fixed Psychological Personas: State Beats Trait, but Language Models are State-Blind
- Title(参考訳): 固定された心理学的ペルソナを超えて:状態はトラストに勝るが、言語モデルはステートブラインドである
- Authors: Tamunotonye Harry, Ivoline Ngong, Chima Nweke, Yuanyuan Feng, Joseph Near,
- Abstract要約: Redditユーザ1,667人の5,001人のコンテキスト心理学的プロファイルのデータセットであるChameleonを紹介した。
ラテント・ステート・トレイト理論に触発され、分散を分解し、74%が内人(状態)であり、わずか26%が対人(取引)であることがわかった。
報酬モデルはユーザの状態に反応するが、一貫性がない: 異なるモデルが同じユーザーを反対方向に好んだり罰したりする。
- 参考スコア(独自算出の注目度): 1.056390973909844
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: User interactions with language models vary due to static properties of the user (trait) and the specific context of the interaction (state). However, existing persona datasets (like PersonaChat, PANDORA etc.) capture only trait, and ignore the impact of state. We introduce Chameleon, a dataset of 5,001 contextual psychological profiles from 1,667 Reddit users, each measured across multiple contexts. Using the Chameleon dataset, we present three key findings. First, inspired by Latent State-Trait theory, we decompose variance and find that 74\% is within-person(state) while only 26\% is between-person (trait). Second, we find that LLMs are state-blind: they focus on trait only, and produce similar responses regardless of state. Third, we find that reward models react to user state, but inconsistently: different models favor or penalize the same users in opposite directions. We release Chameleon to support research on affective computing, personalized dialogue, and RLHF alignment.
- Abstract(参考訳): 言語モデルとのユーザインタラクションは、ユーザ(トラフィック)の静的プロパティと、インタラクション(状態)の特定のコンテキストによって異なる。
しかしながら、既存のペルソナデータセット(PersonaChat、PANDORAなど)は、特性のみをキャプチャし、状態の影響を無視する。
Redditユーザ1,667人から5,001人のコンテキスト心理学的プロファイルのデータセットであるChameleonを紹介した。
Chameleonデータセットを用いて、3つの重要な結果を示す。
まず、ラテント・ステート・トレイト理論に着想を得て、分散を分解し、74\%が内人(状態)であり、26\%のみが対人(状態)である。
第二に、LLMは状態の盲目であり、それらは特性のみに焦点を置き、状態に関係なく同様の応答を生成する。
第三に、報酬モデルはユーザの状態に反応するが、矛盾する: 異なるモデルが同じユーザーを好んで、あるいは反対方向に罰する。
感情コンピューティング、パーソナライズされた対話、RLHFアライメントの研究を支援するためにChameleonをリリースした。
関連論文リスト
- PersonaMem-v2: Towards Personalized Intelligence via Learning Implicit User Personas and Agentic Memory [56.81126490418336]
パーソナライゼーションは、AI能力とアライメントの進歩における次のマイルストーンの1つだ。
PersonaMem-v2は300以上のシナリオ、20,000以上のユーザの好み、128kのコンテキストウィンドウで、1,000の現実的なユーザ-チャットボットインタラクションをシミュレートする。
我々はQwen3-4BをトレーニングしてGPT-5を上回り、暗黙のパーソナライゼーションにおいて53%の精度を達成した。
論文 参考訳(メタデータ) (2025-12-07T06:48:23Z) - Humanity in AI: Detecting the Personality of Large Language Models [0.0]
アンケートは大規模言語モデル(LLM)の個性を検出する一般的な方法である
本稿では,テキストマイニングとアンケート手法の組み合わせを提案する。
LLMのパーソナリティは、事前訓練されたデータから導かれる。
論文 参考訳(メタデータ) (2024-10-11T05:53:11Z) - Meanings and Feelings of Large Language Models: Observability of Latent States in Generative AI [65.04274914674771]
アメリカ心理学会(APA)によると、現在のLarge Language Models(LLM)は「フィーリング」ができない。
我々の分析は、モデルがユーザに見えない非自明な計算を実行できるようにする可能性のある設計に光を当てている。
論文 参考訳(メタデータ) (2024-05-22T23:18:58Z) - Quantifying the Persona Effect in LLM Simulations [25.367927300697424]
大規模言語モデル(LLM)は、人間の言語と振る舞いをシミュレートする際、顕著な可能性を示してきた。
本研究では,パーソナ変数のデコグラフィ,社会的,行動的要因の統合がLLMの多様な視点をシミュレートする能力にどのように影響するかを検討する。
既存の主観的NLPデータセットにおけるアノテーションの10%のばらつきをペルソナ変数が説明できることがわかった。
論文 参考訳(メタデータ) (2024-02-16T16:35:35Z) - What's "up" with vision-language models? Investigating their struggle
with spatial reasoning [76.2406963762722]
3つの新しいコーパスは基本空間関係のモデル理解を定量化する。
我々は18の視覚言語(VL)モデルを評価し、全てが不十分であることが判明した。
私たちはこの驚くべき行動の原因を研究することで結論付ける。
論文 参考訳(メタデータ) (2023-10-30T17:50:15Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Naturalistic Causal Probing for Morpho-Syntax [76.83735391276547]
スペインにおける実世界のデータに対する入力レベルの介入に対する自然主義的戦略を提案する。
提案手法を用いて,共同設立者から文章中の形態・症状の特徴を抽出する。
本研究では,事前学習したモデルから抽出した文脈化表現に対する性別と数字の因果効果を解析するために,本手法を適用した。
論文 参考訳(メタデータ) (2022-05-14T11:47:58Z) - CharacterGAN: Few-Shot Keypoint Character Animation and Reposing [64.19520387536741]
本稿では,与えられた文字の少数のサンプルに対してのみトレーニング可能な生成モデルである characterGAN を紹介する。
我々のモデルはキーポイント位置に基づいて新しいポーズを生成し、インタラクティブなフィードバックを提供しながらリアルタイムで修正することができる。
提案手法は,近年のベースラインよりも優れており,多様なキャラクタに対してリアルなアニメーションを生成する。
論文 参考訳(メタデータ) (2021-02-05T12:38:15Z) - Effects of Naturalistic Variation in Goal-Oriented Dialog [12.49850843793842]
本稿では,bAbIダイアログタスクとStanford Multi-Domainデータセットの2つの目標指向データセットに対する自然主義的変動の影響について検討する。
本稿では,ユーザによる自然主義的変動を導入することにより,両方のデータセットに対する新しい,より効果的なテストベッドを提案する。
論文 参考訳(メタデータ) (2020-10-05T18:13:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。