論文の概要: Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks
- arxiv url: http://arxiv.org/abs/2508.21628v1
- Date: Fri, 29 Aug 2025 13:42:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.061182
- Title: Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks
- Title(参考訳): パーソナリティの問題:マルチタスク協調作業におけるLCMの予測
- Authors: Sarfaroz Yunusov, Kaige Chen, Kazi Nishat Anwar, Ali Emami,
- Abstract要約: 大規模言語モデル(LLM)は、ユーザがマルチターンコラボレーションを通じて成果を形作るために、日々の作業に統合されるようになっている。
異なる性格特性を持つユーザーは、特定のLCMを他人よりも体系的に好んでいるか?
健常者32名を対象に, GPT-4 と Claude 3.5 との相互作用を定量的に検討した。
- 参考スコア(独自算出の注目度): 11.841394824977984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As Large Language Models (LLMs) increasingly integrate into everyday workflows, where users shape outcomes through multi-turn collaboration, a critical question emerges: do users with different personality traits systematically prefer certain LLMs over others? We conducted a study with 32 participants evenly distributed across four Keirsey personality types, evaluating their interactions with GPT-4 and Claude 3.5 across four collaborative tasks: data analysis, creative writing, information retrieval, and writing assistance. Results revealed significant personality-driven preferences: Rationals strongly preferred GPT-4, particularly for goal-oriented tasks, while idealists favored Claude 3.5, especially for creative and analytical tasks. Other personality types showed task-dependent preferences. Sentiment analysis of qualitative feedback confirmed these patterns. Notably, aggregate helpfulness ratings were similar across models, showing how personality-based analysis reveals LLM differences that traditional evaluations miss.
- Abstract(参考訳): 大規模言語モデル(LLM)が日々のワークフローに統合され、ユーザがマルチターンコラボレーションを通じて成果を形作るようになるにつれて、重要な疑問が浮かび上がってくる。
データ分析,創造的文章作成,情報検索,文書作成支援の4つの課題に対して,GPT-4とClaude 3.5とのインタラクションを評価し,Keirseyの性格型を均等に分けた32人の被験者を対象に調査を行った。
合理主義者は特に目標志向のタスクにGPT-4を強く好んだが、理想主義者はクロード3.5、特に創造的で分析的なタスクに好んだ。
他の性格型はタスク依存の嗜好を示した。
定性的フィードバックの感度分析により,これらのパターンが確認された。
特に、総合的有用度評価はモデル間で類似しており、パーソナリティに基づく分析が従来の評価が見逃すLCMの違いを如何に示しているかを示している。
関連論文リスト
- Are Economists Always More Introverted? Analyzing Consistency in Persona-Assigned LLMs [12.780044838203738]
我々は、ペルソナに割り当てられたLarge Language Models(LLM)における一貫性を分析するための新しい標準フレームワークを導入する。
本フレームワークは,複数のタスク次元にまたがる4つのカテゴリ(幸福,職業,人格,政治的スタンス)のペルソナを評価する。
この結果から, 与えられたペルソナ, ステレオタイプ, モデル設計選択など, 一貫性は複数の要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2025-06-03T09:12:23Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。