論文の概要: Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks
- arxiv url: http://arxiv.org/abs/2508.21628v1
- Date: Fri, 29 Aug 2025 13:42:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.061182
- Title: Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks
- Title(参考訳): パーソナリティの問題:マルチタスク協調作業におけるLCMの予測
- Authors: Sarfaroz Yunusov, Kaige Chen, Kazi Nishat Anwar, Ali Emami,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザがマルチターンコラボレーションを通じて成果を形作るために、日々の作業に統合されるようになっている。
異なる性格特性を持つユーザーは、特定のLCMを他人よりも体系的に好んでいるか?
健常者32名を対象に, GPT-4 と Claude 3.5 との相互作用を定量的に検討した。
- 参考スコア(独自算出の注目度): 11.841394824977984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) increasingly integrate into everyday workflows, where users shape outcomes through multi-turn collaboration, a critical question emerges: do users with different personality traits systematically prefer certain LLMs over others? We conducted a study with 32 participants evenly distributed across four Keirsey personality types, evaluating their interactions with GPT-4 and Claude 3.5 across four collaborative tasks: data analysis, creative writing, information retrieval, and writing assistance. Results revealed significant personality-driven preferences: Rationals strongly preferred GPT-4, particularly for goal-oriented tasks, while idealists favored Claude 3.5, especially for creative and analytical tasks. Other personality types showed task-dependent preferences. Sentiment analysis of qualitative feedback confirmed these patterns. Notably, aggregate helpfulness ratings were similar across models, showing how personality-based analysis reveals LLM differences that traditional evaluations miss.
- Abstract(参考訳): 大規模言語モデル(LLM)が日々のワークフローに統合され、ユーザがマルチターンコラボレーションを通じて成果を形作るようになるにつれて、重要な疑問が浮かび上がってくる。
データ分析,創造的文章作成,情報検索,文書作成支援の4つの課題に対して,GPT-4とClaude 3.5とのインタラクションを評価し,Keirseyの性格型を均等に分けた32人の被験者を対象に調査を行った。
合理主義者は特に目標志向のタスクにGPT-4を強く好んだが、理想主義者はクロード3.5、特に創造的で分析的なタスクに好んだ。
他の性格型はタスク依存の嗜好を示した。
定性的フィードバックの感度分析により,これらのパターンが確認された。
特に、総合的有用度評価はモデル間で類似しており、パーソナリティに基づく分析が従来の評価が見逃すLCMの違いを如何に示しているかを示している。
関連論文リスト
- Towards Realistic Personalization: Evaluating Long-Horizon Preference Following in Personalized User-LLM Interactions [50.70965714314064]
大規模言語モデル(LLM)は、ユーザが拡張されたインタラクションよりも複雑で多様な好みを共有するパーソナルアシスタントとして、ますます機能している。
この研究は、パーソナライズされたユーザ-LLMインタラクションにおいて、リアルな嗜好フォローを評価するためのベンチマークであるRealPrefを提案する。
論文 参考訳(メタデータ) (2026-03-04T15:42:43Z) - Personalities at Play: Probing Alignment in AI Teammates [1.0742675209112622]
大型言語モデル (LLM) はツールではなく協力者としての役割を担っている。
本稿では,3段階評価フレームワークを用いたAIの人格アライメントについて検討する。
結果は、AIの性格は測定可能であるが、多層構造であり、文脈に依存していることを示唆している。
論文 参考訳(メタデータ) (2026-02-28T03:06:02Z) - Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - Are Economists Always More Introverted? Analyzing Consistency in Persona-Assigned LLMs [12.780044838203738]
我々は、ペルソナに割り当てられたLarge Language Models(LLM)における一貫性を分析するための新しい標準フレームワークを導入する。
本フレームワークは,複数のタスク次元にまたがる4つのカテゴリ(幸福,職業,人格,政治的スタンス)のペルソナを評価する。
この結果から, 与えられたペルソナ, ステレオタイプ, モデル設計選択など, 一貫性は複数の要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2025-06-03T09:12:23Z) - Aligning LLMs with Individual Preferences via Interaction [51.72200436159636]
調整可能な大きな言語モデル(LLM)をトレーニングします。
木構造における3K以上の多ターン会話を含む多ターン嗜好データセットを開発した。
評価のために、慎重に選択された100のサンプルと、会話中にカスタマイズされたアライメント性能を測定するために適切に設計されたメトリクスからなるALOEベンチマークを確立する。
論文 参考訳(メタデータ) (2024-10-04T17:48:29Z) - Personality Alignment of Large Language Models [30.710131188931317]
パーソナリティ・アライメント(Personality Alignment)は、大きな言語モデルと個々のユーザの好みを合わせることを目的としている。
このデータセットには、複数のパーソナリティアセスメントを含む、32万人以上の実際の被験者のデータが含まれている。
本研究では,個人の行動選好を効率的に整合させるために,アクティベーション介入最適化手法を開発した。
私たちの仕事は、未来のAIシステムが真にパーソナライズされた方法で意思決定と推論を行うための道を開くものです。
論文 参考訳(メタデータ) (2024-08-21T17:09:00Z) - Evaluating Large Language Models with Psychometrics [59.821829073478376]
本稿では,Large Language Models (LLMs) の心理的構造を定量化するための総合的ベンチマークを提案する。
私たちの研究は、13のデータセットで評価された5つの重要な心理的構成要素、人格、価値観、感情的知性、心の理論、自己効力性を特定します。
LLMの自己報告特性と実際のシナリオにおける応答パターンとの間に大きな相違が発見され,その挙動の複雑さが明らかになった。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - Enhancing Large Language Models in Coding Through Multi-Perspective Self-Consistency [127.97467912117652]
大規模言語モデル(LLM)は、コード生成において顕著な能力を示した。
しかし、単一の試みで正しいソリューションを生成することは依然として課題である。
本稿では,MPSC(Multi-Perspective Self-Consistency)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-29T14:23:26Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。