論文の概要: ChatGPT an ENFJ, Bard an ISTJ: Empirical Study on Personalities of Large
Language Models
- arxiv url: http://arxiv.org/abs/2305.19926v2
- Date: Wed, 7 Jun 2023 13:45:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 18:06:29.825293
- Title: ChatGPT an ENFJ, Bard an ISTJ: Empirical Study on Personalities of Large
Language Models
- Title(参考訳): ChatGPT an ENFJ, Bard an ISTJ: 大規模言語モデルの個性に関する実証的研究
- Authors: Jen-tse Huang, Wenxuan Wang, Man Ho Lam, Eric John Li, Wenxiang Jiao,
Michael R. Lyu
- Abstract要約: まず,ChatGPTが提示する個性の一貫性を評価することに焦点を当てた。
実験には、追加の7つの言語に対する言語間効果や、他の6つのLLMの調査が含まれる。
その結果,ChatGPTは指示や文脈によらず,常にENFJの性格を維持していることがわかった。
- 参考スコア(独自算出の注目度): 33.69141952490578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have made remarkable advancements in the field
of artificial intelligence, significantly reshaping the human-computer
interaction. We not only focus on the performance of LLMs, but also explore
their features from a psychological perspective, acknowledging the importance
of understanding their behavioral characteristics. Our study examines the
behavioral patterns displayed by LLMs by employing trait theory, a
psychological framework. We first focus on evaluating the consistency of
personality types exhibited by ChatGPT. Furthermore, experiments include
cross-lingual effects on seven additional languages, and the investigation of
six other LLMs. Moreover, the study investigates whether ChatGPT can exhibit
personality changes in response to instructions or contextual cues. The
findings show that ChatGPT consistently maintains its ENFJ personality
regardless of instructions or contexts. By shedding light on the
personalization of LLMs, we anticipate that our study will serve as a catalyst
for further research in this field.
- Abstract(参考訳): 大規模言語モデル(llm)は人工知能の分野で著しく進歩し、人間とコンピュータの相互作用を大きく変えた。
我々は,LLMのパフォーマンスだけでなく,その特徴を心理的観点から探求し,その行動特性を理解することの重要性を認識している。
本研究では, LLMが提示する行動パターンを, 心理的枠組みである特性理論を用いて検討した。
まず、chatgptが提示するパーソナリティタイプの一貫性を評価することに焦点を当てる。
さらに、他の7つの言語に対する言語間効果や、他の6つのLLMの調査も含まれる。
さらに,ChatGPTが指示や文脈的手がかりに応答して性格変化を示すことができるかどうかを検討した。
その結果,ChatGPTは指示や文脈によらず,常にENFJの性格を維持していることがわかった。
llmのパーソナライズに光を当てることで,本研究がこの分野におけるさらなる研究の触媒となることを期待する。
関連論文リスト
- LMLPA: Language Model Linguistic Personality Assessment [11.599282127259736]
大規模言語モデル(LLM)は、日常の生活や研究にますます利用されている。
与えられたLLMの性格を測定することは、現在課題である。
言語モデル言語パーソナリティアセスメント(LMLPA)は,LLMの言語的パーソナリティを評価するシステムである。
論文 参考訳(メタデータ) (2024-10-23T07:48:51Z) - Hate Personified: Investigating the role of LLMs in content moderation [64.26243779985393]
ヘイト検出などの主観的タスクでは,人々が嫌悪感を知覚する場合には,多様なグループを表現できるLarge Language Model(LLM)の能力は不明確である。
追加の文脈をプロンプトに含めることで、LLMの地理的プライミングに対する感受性、ペルソナ属性、数値情報を分析し、様々なグループのニーズがどの程度反映されているかを評価する。
論文 参考訳(メタデータ) (2024-10-03T16:43:17Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Is Cognition and Action Consistent or Not: Investigating Large Language
Model's Personality [12.162460438332152]
本研究では,人格質問紙に対する回答を通じて,人格特性の証明における言語モデル(LLM)の信頼性について検討した。
我々のゴールは、LLMの人格傾向と実際の「行動」との整合性を評価することである。
本研究では,心理学的理論とメトリクスに基づく観察結果の仮説を提案する。
論文 参考訳(メタデータ) (2024-02-22T16:32:08Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Challenging the Validity of Personality Tests for Large Language Models [2.9123921488295768]
大規模言語モデル(LLM)は、テキストベースのインタラクションにおいて、ますます人間らしく振る舞う。
人格検査に対するLLMの反応は、人間の反応から体系的に逸脱する。
論文 参考訳(メタデータ) (2023-11-09T11:54:01Z) - Understanding Social Reasoning in Language Models with Language Models [34.068368860882586]
本稿では,因果テンプレートを投入することにより,Large Language Models (LLM) による評価を生成する新しいフレームワークを提案する。
LLMのための新しいソーシャル推論ベンチマーク(BigToM)を作成し、25のコントロールと5000のモデル記述評価からなる。
ヒトの被験者は、これまでのクラウドソースによる評価よりもベンチマークの質を高く評価し、専門家による評価に匹敵することがわかった。
論文 参考訳(メタデータ) (2023-06-21T16:42:15Z) - PersonaLLM: Investigating the Ability of Large Language Models to Express Personality Traits [30.770525830385637]
本研究では,ビッグファイブ・パーソナリティ・モデルに基づく大規模言語モデル(LLM)の行動について検討する。
その結果, LLMペルソナの自己申告したBFIスコアは, 指定した性格タイプと一致していることがわかった。
人間の評価は、人間は最大80%の精度でいくつかの性格特性を知覚できることを示している。
論文 参考訳(メタデータ) (2023-05-04T04:58:00Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。