論文の概要: Personalities at Play: Probing Alignment in AI Teammates
- arxiv url: http://arxiv.org/abs/2603.00429v1
- Date: Sat, 28 Feb 2026 03:06:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.186466
- Title: Personalities at Play: Probing Alignment in AI Teammates
- Title(参考訳): プレイでのパーソナリティ:AIチームメイトによるアライメントの検証
- Authors: Mohammad Amin Samadi, Nia Nixon,
- Abstract要約: 大型言語モデル (LLM) はツールではなく協力者としての役割を担っている。
本稿では,3段階評価フレームワークを用いたAIの人格アライメントについて検討する。
結果は、AIの性格は測定可能であるが、多層構造であり、文脈に依存していることを示唆している。
- 参考スコア(独自算出の注目度): 1.0742675209112622
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Collaborative problem solving and learning are shaped by who or what is on the team. As large language models (LLMs) increasingly function as collaborators rather than tools, a key question is whether AI teammates can be aligned to express personality in predictable ways that matter for interaction and learning. We investigate AI personality alignment through a three-lens evaluation framework spanning self-perception (standardized self-report), behavioral expression (team dialogue), and reflective expression (memory construction). We first administered the Big Five Inventory (BFI-44) to LLM-based teammates across four providers (GPT-4o, Claude-3.7 Sonnet, Gemini-2.5 Pro, Grok-3), 32 high/low trait configurations, and multiple prompting strategies. LLMs produced sharply differentiated Big Five profiles, but prompt semantic richness added little beyond simple trait assignment, while provider differences and baseline "default" personalities were substantial. Role framing also mattered: several models refused the assessment without context, yet complied when framed as a collaborative teammate. We then simulated AI participation in authentic team transcripts using high-trait personas and analyzed both generated utterances and structured long-term memories with LIWC-22. Personality signals in conversation were generally subtle and most detectable for Extraversion, whereas memory representations amplified trait-specific signals, especially for Neuroticism, Conscientiousness, and Agreeableness; Openness remained difficult to elicit robustly. Together, results suggest that AI personality is measurable but multi-layered and context-dependent, and that evaluating personality-aligned AI teammates requires attention to memory and system-level design, not conversation-only behavior.
- Abstract(参考訳): 協調的な問題解決と学習は、チーム内の誰、何によって形成されます。
大きな言語モデル(LLM)がツールよりも協力者として機能するようになるにつれて、重要な疑問は、AIチームメイトが、対話や学習において重要な予測可能な方法で人格を表現するように調整できるかどうかである。
本稿では、自己認識(標準化された自己報告)、行動表現(チーム対話)、反射表現(メモリ構築)にまたがる3段階評価フレームワークを用いて、AIパーソナリティのアライメントを検討する。
まず,4つのプロバイダ(GPT-4o,Claude-3.7 Sonnet,Gemini-2.5 Pro,Grok-3)にまたがるチームメイトに対するBig Five Inventory(BFI-44)の実施,32の高低特性設定,複数のプロンプト戦略について検討した。
LLMははっきりと区別されたビッグファイブプロファイルを生み出したが、素早いセマンティック・リッチネスは単純な特質の割り当てをほとんど加えず、プロバイダの違いとベースラインの「デフォルト」パーソナリティは相当なものだった。
いくつかのモデルでは、コンテキストのないアセスメントを拒否したが、コラボレーティブなチームメイトとしてフレーム化されたときに、それに従った。
次に,高信頼度ペルソナを用いてAI参加をシミュレーションし,LIWC-22を用いて生成した発話と長期記憶の両方を解析した。
会話におけるパーソナリティ信号は概して微妙で、外転では最も検出可能であったが、メモリ表現は特性特異的な信号、特に神経症、良性、そして理解性に対して増幅され、オープン性は頑健に引き起こすことが困難であった。
その結果、AIパーソナリティは測定可能であるが、多層的でコンテキスト依存であり、パーソナライズされたAIチームメイトを評価するには、会話のみの振る舞いではなく、メモリとシステムレベルの設計に注意が必要であることが示唆された。
関連論文リスト
- AI-exhibited Personality Traits Can Shape Human Self-concept through Conversations [26.039188521284974]
我々は、人間とAIの会話を通して、AIの性格特性がユーザーの自己概念を形作る方法を示す。
我々は、より責任と倫理的なAIシステムの開発に重要な設計上の意味を提供する。
論文 参考訳(メタデータ) (2026-01-19T05:16:57Z) - Vibe Check: Understanding the Effects of LLM-Based Conversational Agents' Personality and Alignment on User Perceptions in Goal-Oriented Tasks [2.1117030125341385]
大きな言語モデル(LLM)は、会話エージェント(CA)が特有の個性を表現することを可能にする。
本研究では、目標指向タスクにおける人格表現レベルとユーザエージェントの人格アライメントが知覚に与える影響について検討する。
論文 参考訳(メタデータ) (2025-09-11T21:43:49Z) - Personality Matters: User Traits Predict LLM Preferences in Multi-Turn Collaborative Tasks [11.841394824977984]
大規模言語モデル(LLM)は、ユーザがマルチターンコラボレーションを通じて成果を形作るために、日々の作業に統合されるようになっている。
異なる性格特性を持つユーザーは、特定のLCMを他人よりも体系的に好んでいるか?
健常者32名を対象に, GPT-4 と Claude 3.5 との相互作用を定量的に検討した。
論文 参考訳(メタデータ) (2025-08-29T13:42:26Z) - Sentient Agent as a Judge: Evaluating Higher-Order Social Cognition in Large Language Models [75.85319609088354]
SAGE(Sentient Agent as a Judge)は、大規模言語モデルの評価フレームワークである。
SAGEは人間のような感情の変化や内的思考をシミュレートするSentient Agentをインスタンス化する。
SAGEは、真に共感的で社会的に適応的な言語エージェントへの進捗を追跡するための、原則付き、スケーラブルで解釈可能なツールを提供する。
論文 参考訳(メタデータ) (2025-05-01T19:06:10Z) - Towards Anthropomorphic Conversational AI Part I: A Practical Framework [49.62013440962072]
会話に関わる人間の知性の重要な側面を再現するために設計されたマルチモジュールフレームワークを導入する。
アプローチの第2段階では、これらの会話データは、フィルタリングとラベル付けの後に、強化学習のためのトレーニングおよびテストデータとして機能する。
論文 参考訳(メタデータ) (2025-02-28T03:18:39Z) - Can LLM Agents Maintain a Persona in Discourse? [3.286711575862228]
大規模言語モデル(LLM)は、教育、法律、医学など、様々な分野でその能力を利用する会話エージェントとして広く利用されている。
LLMは、しばしばコンテキストシフトの振る舞いを受け、一貫性と解釈可能なパーソナリティ整合性の相互作用が欠如する。
LLMはパーソナライズされた対話へと導くことができるが、その性格特性を維持する能力はモデルと談話設定の組み合わせによって大きく異なる。
論文 参考訳(メタデータ) (2025-02-17T14:36:39Z) - Revealing Personality Traits: A New Benchmark Dataset for Explainable Personality Recognition on Dialogues [63.936654900356004]
パーソナリティ認識は,対話やソーシャルメディア投稿などのユーザデータに含まれる性格特性を識別することを目的としている。
本稿では,人格特性の証拠として推論過程を明らかにすることを目的とした,説明可能な人格認識という新しい課題を提案する。
論文 参考訳(メタデータ) (2024-09-29T14:41:43Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Editing Personality for Large Language Models [73.59001811199823]
本稿では,Large Language Models (LLMs) の性格特性の編集に焦点をあてた革新的なタスクを紹介する。
このタスクに対処する新しいベンチマークデータセットであるPersonalityEditを構築します。
論文 参考訳(メタデータ) (2023-10-03T16:02:36Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z) - CPED: A Large-Scale Chinese Personalized and Emotional Dialogue Dataset
for Conversational AI [48.67259855309959]
会話型AIのための既存のデータセットのほとんどは、人間の個性や感情を無視している。
CPEDは,中国における大規模パーソナライズされた感情対話データセットである。
CPEDには40のテレビ番組から392人の話者の12K以上の対話が含まれている。
論文 参考訳(メタデータ) (2022-05-29T17:45:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。