論文の概要: Designing AI-Agents with Personalities: A Psychometric Approach
- arxiv url: http://arxiv.org/abs/2410.19238v3
- Date: Sun, 21 Sep 2025 23:37:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 12:27:33.448534
- Title: Designing AI-Agents with Personalities: A Psychometric Approach
- Title(参考訳): 個性を持つAIエージェントを設計する:心理学的アプローチ
- Authors: Muhua Huang, Xijuan Zhang, Christopher Soto, James Evans,
- Abstract要約: 本稿では,定量的かつ心理学的に検証された個人性をAIエージェントに割り当てる手法を提案する。
3つの研究で実現可能性と限界を評価した。
- 参考スコア(独自算出の注目度): 2.854338743097065
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce a methodology for assigning quantifiable and psychometrically validated personalities to AI-Agents using the Big Five framework. Across three studies, we evaluate its feasibility and limitations. In Study 1, we show that large language models (LLMs) capture semantic similarities among Big Five measures, providing a basis for personality assignment. In Study 2, we create AI-Agents using prompts designed based on the Big Five Inventory-2 (BFI-2) in different format, and find that AI-Agents powered by new models align more closely with human responses on the Mini-Markers test, although the finer pattern of results (e.g., factor loading patterns) were sometimes inconsistent. In Study 3, we validate our AI-Agents on risk-taking and moral dilemma vignettes, finding that models prompted with the BFI-2-Expanded format most closely reproduce human personality-decision associations, while safety-aligned models generally inflate 'moral' ratings. Overall, our results show that AI-Agents align with humans in correlations between input Big Five traits and output responses and may serve as useful tools for preliminary research. Nevertheless, discrepancies in finer response patterns indicate that AI-Agents cannot (yet) fully substitute for human participants in precision or high-stakes projects.
- Abstract(参考訳): 本稿では,ビッグファイブ・フレームワークを用いて,定量的・心理的に検証された個人性をAIエージェントに割り当てる手法を提案する。
3つの研究で実現可能性と限界を評価した。
研究1では、大きな言語モデル(LLM)がビッグファイブ尺度のセマンティックな類似性を捉え、パーソナリティの割り当ての基盤となることを示す。
研究2では,Big Five Inventory-2(BFI-2)を異なるフォーマットで設計したプロンプトを用いてAI-Agentを作成し,新しいモデルを用いたAI-AgentがMini-Markersテストにおける人間の反応とより密に一致していることを確認した。
研究3では、リスクテイキングとモラルジレンマ・ヴィグネットに関するAI-Agentsを検証し、BFI-2拡張フォーマットによって引き起こされたモデルが人間の人格決定関連を最も密に再現しているのに対し、安全に整合したモデルは一般に「道徳的」評価に影響を及ぼすことを示した。
以上の結果から,AI-Agentsは入力された5つの特徴と出力応答の相関関係において人間と一致し,予備研究に役立つ可能性が示唆された。
それでも、より細かい反応パターンの相違は、AI-Agentsが精度の高いプロジェクトや高いプロジェクトにおいて、人間の参加者を完全に置き換えることができないことを示している。
関連論文リスト
- Applying Psychometrics to Large Language Model Simulated Populations: Recreating the HEXACO Personality Inventory Experiment with Generative Agents [0.0]
生成エージェントは、洗練された自然言語の相互作用を通して人間のような特性を示す。
事前に定義された人物の伝記に基づいて役割や個性を仮定する能力は、社会科学研究の参加者にとってコスト効率のよい代用品として位置づけられている。
本稿では,このようなペルソナをベースとしたエージェントがヒトの集団を表わすための有効性について検討する。
論文 参考訳(メタデータ) (2025-08-01T16:16:16Z) - A validity-guided workflow for robust large language model research in psychology [0.0]
大規模言語モデル(LLM)は、研究ツール、評価対象、人間のシミュレータ、認知モデルとして、心理学研究に急速に統合されている。
これらの「測定幻覚」は、統計的成果を心理学的現象として生み出すもので、成長する研究機関の妥当性を損なうものである。
精神測定と因果推論を統合した二重正当性フレームワークによって導かれた6段階のワークフローで、妥当性要件を研究野心に拡張する。
論文 参考訳(メタデータ) (2025-07-06T18:06:12Z) - Large Language Models as Psychological Simulators: A Methodological Guide [0.0]
本稿では,2つの主要なアプリケーションを対象とした心理シミュレータとして,大規模言語モデルを使用するためのフレームワークを提供する。
シミュレーションでは,集団的カテゴリーを超えて心理的基盤を持つペルソナを開発する手法を提案する。
我々は、素早い感度、トレーニングデータカットオフからの時間的制限、従来の人的対象のレビューを超えて広がる倫理的考慮など、包括的な課題に対処する。
論文 参考訳(メタデータ) (2025-06-20T02:45:23Z) - A Comparative Study of Large Language Models and Human Personality Traits [6.354326674890978]
言語モデル(LLM)は、言語理解と生成において人間のような能力を示す。
本研究では, LLMが人格的特徴を示すか, これらの特徴が人格とどのように比較されるかを検討する。
論文 参考訳(メタデータ) (2025-05-01T15:10:15Z) - Personality Structured Interview for Large Language Model Simulation in Personality Research [8.208325358490807]
人格研究における人間の反応をシミュレートするためのツールとして,理論インフォームド・パーソナリティ構造化インタビューの可能性を探る。
対象サンプルから,32質問に対する個人の回答を含む357件の構造化面接書を作成した。
3つの実験の結果、LLMシミュレーションされた人格データにおいて、よく設計されたインタビューが人間のような不均一性を改善できることを示した。
論文 参考訳(メタデータ) (2025-02-17T18:31:57Z) - Evaluating Personality Traits in Large Language Models: Insights from Psychological Questionnaires [3.6001840369062386]
この研究は、多種多様なシナリオにおける大規模言語モデルに心理学的ツールを適用し、パーソナリティプロファイルを生成する。
以上の結果から, LLMは, 同一モデル群においても, 特徴, 特徴, 性格の異なる特徴を示すことが明らかとなった。
論文 参考訳(メタデータ) (2025-02-07T16:12:52Z) - Generative Agent Simulations of 1,000 People [56.82159813294894]
本稿では,1,052人の実人の態度と行動をシミュレートする新しいエージェントアーキテクチャを提案する。
生成エージェントは一般社会調査の参加者の回答を85%の精度で再現する。
我々のアーキテクチャは、人種的およびイデオロギー的グループにおける正確さのバイアスを、人口統計学的記述のエージェントと比較して低減する。
論文 参考訳(メタデータ) (2024-11-15T11:14:34Z) - BIG5-CHAT: Shaping LLM Personalities Through Training on Human-Grounded Data [28.900987544062257]
BIG5-CHATは、人間がいかに人格をテキストで表現するかのモデルを構築するために設計された10万の対話を含む大規模なデータセットである。
提案手法は,BFIやIPIP-NEOなどの人格評価に優れ,特徴相関は人的データとより密に一致している。
実験の結果,高良性,高良性,低外転,低神経障害を訓練したモデルでは,推論タスクの性能が向上することが判明した。
論文 参考訳(メタデータ) (2024-10-21T20:32:27Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - AFSPP: Agent Framework for Shaping Preference and Personality with Large
Language Models [4.6251098692410855]
選好とパーソナリティのためのエージェントフレームワーク(AFSPP)を提案する。
AFSPPは、ソーシャルネットワークの多面的影響と、エージェントの好みとパーソナリティ形成に対する主観的意識を探求する。
心理的実験の効率とスコープを大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-01-05T15:52:59Z) - PsyCoT: Psychological Questionnaire as Powerful Chain-of-Thought for
Personality Detection [50.66968526809069]
PsyCoTと呼ばれる新しい人格検出手法を提案する。これは、個人がマルチターン対話方式で心理的質問を完遂する方法を模倣するものである。
実験の結果,PsyCoTは人格検出におけるGPT-3.5の性能とロバスト性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-10-31T08:23:33Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z) - Assessing Human Interaction in Virtual Reality With Continually Learning
Prediction Agents Based on Reinforcement Learning Algorithms: A Pilot Study [6.076137037890219]
本研究では,人間と学習の継続する予測エージェントの相互作用が,エージェントの能力の発達とともにどのように発達するかを検討する。
我々は、強化学習(RL)アルゴリズムから学習した予測が人間の予測を増大させる仮想現実環境と時間ベースの予測タスクを開発する。
以上の結果から,人的信頼はエージェントとの早期の相互作用に影響され,信頼が戦略的行動に影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2021-12-14T22:46:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。