論文の概要: Personality testing of GPT-3: Limited temporal reliability, but
highlighted social desirability of GPT-3's personality instruments results
- arxiv url: http://arxiv.org/abs/2306.04308v2
- Date: Fri, 15 Dec 2023 06:26:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 19:20:08.232573
- Title: Personality testing of GPT-3: Limited temporal reliability, but
highlighted social desirability of GPT-3's personality instruments results
- Title(参考訳): GPT-3の個人性検査 : 時間的信頼性に限界があるが、GPT-3の人格測定結果の社会的欲求性を強調した
- Authors: Bojana Bodroza, Bojana M. Dinic and Ljubisa Bojic
- Abstract要約: 本研究は、著名なAIボットの性格プロファイルの時間的信頼性を評価することを目的とする。
ダヴィンチ003は、特にコミュニオンの領域において、社会的に望ましい社会人格のプロファイルを示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: As AI-bots continue to gain popularity due to their human-like traits and the
intimacy they offer to users, their societal impact inevitably expands. This
leads to the rising necessity for comprehensive studies to fully understand
AI-bots and reveal their potential opportunities, drawbacks, and overall
societal impact. With that in mind, this research conducted an extensive
investigation into ChatGPT3, a renowned AI bot, aiming to assess the temporal
reliability of its personality profile. Psychological questionnaires were
administered to the chatbot on two separate occasions, followed by a comparison
of the responses to human normative data. The findings revealed varying levels
of agreement in chatbot's responses over time, with some scales displaying
excellent agreement while others demonstrated poor agreement. Overall,
Davinci-003 displayed a socially desirable and pro-social personality profile,
particularly in the domain of communion. However, the underlying basis of the
chatbot's responses-whether driven by conscious self reflection or
predetermined algorithms-remains uncertain.
- Abstract(参考訳): aiボットは、人間のような特性とユーザーへの親密さのために人気が高まり続けているため、必然的にその社会的影響は拡大する。
これにより、包括的な研究がAIボットを完全に理解し、その可能性、欠点、全体的な社会的影響を明らかにする必要性が高まる。
そこで本研究では,人格プロファイルの時間的信頼性を評価することを目的として,知名度の高いAIボットChatGPT3について広範な調査を行った。
チャットボットに対して, 心理的質問紙を2回に分けて実施し, 次いで人間規範データとの比較を行った。
その結果,チャットボットの反応は時間とともに変化し,いくつかの尺度では優れた一致を示した。
概して、ダヴィンチ-003は社会的に望ましい社会的パーソナリティプロファイルを示し、特にコミュニオンの領域で顕著であった。
しかし、意識的な自己反射や所定のアルゴリズムによって駆動されるチャットボットの応答の基盤は不確かである。
関連論文リスト
- Persuasion with Large Language Models: a Survey [49.86930318312291]
大規模言語モデル (LLM) は説得力のあるコミュニケーションに新たな破壊的可能性を生み出している。
政治、マーケティング、公衆衛生、電子商取引、慈善事業などの分野では、LLMシステムズは既に人間レベルや超人的説得力を達成している。
LLMをベースとした説得の現在と将来の可能性は、倫理的・社会的リスクを著しく引き起こす可能性が示唆された。
論文 参考訳(メタデータ) (2024-11-11T10:05:52Z) - LMLPA: Language Model Linguistic Personality Assessment [11.599282127259736]
大規模言語モデル(LLM)は、日常の生活や研究にますます利用されている。
与えられたLLMの性格を測定することは、現在課題である。
言語モデル言語パーソナリティアセスメント(LMLPA)は,LLMの言語的パーソナリティを評価するシステムである。
論文 参考訳(メタデータ) (2024-10-23T07:48:51Z) - Rel-A.I.: An Interaction-Centered Approach To Measuring Human-LM Reliance [73.19687314438133]
インタラクションの文脈的特徴が依存に与える影響について検討する。
文脈特性が人間の信頼行動に大きく影響していることが判明した。
これらの結果から,キャリブレーションと言語品質だけでは人間とLMの相互作用のリスクを評価するには不十分であることが示唆された。
論文 参考訳(メタデータ) (2024-07-10T18:00:05Z) - Is Cognition and Action Consistent or Not: Investigating Large Language
Model's Personality [12.162460438332152]
本研究では,人格質問紙に対する回答を通じて,人格特性の証明における言語モデル(LLM)の信頼性について検討した。
我々のゴールは、LLMの人格傾向と実際の「行動」との整合性を評価することである。
本研究では,心理学的理論とメトリクスに基づく観察結果の仮説を提案する。
論文 参考訳(メタデータ) (2024-02-22T16:32:08Z) - Stick to your Role! Stability of Personal Values Expressed in Large Language Models [19.516125296160638]
異なる文脈における値表現の安定性に関するケーススタディを提案する。
心理学的手法を用いて,人口のランク順安定性について検討した。
モデルおよびモデルファミリーの安定性における一貫した傾向を観察する。
論文 参考訳(メタデータ) (2024-02-19T14:53:01Z) - LLMs Simulate Big Five Personality Traits: Further Evidence [51.13560635563004]
Llama2, GPT4, Mixtralでシミュレートされた性格特性を解析した。
このことは、パーソナリティ特性をシミュレートするLLMの能力のより広範な理解に寄与する。
論文 参考訳(メタデータ) (2024-01-31T13:45:25Z) - Do LLM Agents Exhibit Social Behavior? [5.094340963261968]
State-Understanding-Value-Action (SUVA) は、社会的文脈における応答を体系的に分析するフレームワークである。
最終決定とそれにつながる反応生成プロセスの両方を通じて社会的行動を評価する。
発話に基づく推論がLLMの最終動作を確実に予測できることを実証する。
論文 参考訳(メタデータ) (2023-12-23T08:46:53Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Large Language Models are Not Yet Human-Level Evaluators for Abstractive
Summarization [66.08074487429477]
抽象的な要約のための自動評価器として,大規模言語モデル(LLM)の安定性と信頼性について検討する。
また、ChatGPTとGPT-4は、一般的に使われている自動測定値よりも優れていますが、人間の代替品として準備ができていません。
論文 参考訳(メタデータ) (2023-05-22T14:58:13Z) - Can ChatGPT Assess Human Personalities? A General Evaluation Framework [70.90142717649785]
大きな言語モデル(LLM)は、様々な分野で印象的な成果を上げてきたが、その潜在的な人間のような心理学はいまだに研究されていない。
本稿では,Mers Briggs Type Indicator (MBTI) テストに基づく人格評価のための総合評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-01T06:16:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。