論文の概要: Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs
- arxiv url: http://arxiv.org/abs/2402.04110v1
- Date: Tue, 6 Feb 2024 16:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:04:55.524741
- Title: Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs
- Title(参考訳): バックスクリーン:チャットgptのダークパーソナリティ特性と陰謀の信念を調査
- Authors: Erik Weber, J\'er\^ome Rutinowski, Markus Pauly
- Abstract要約: 本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を分析した。
ダークパーソナリティの特徴と陰謀の信念はどちらのモデルでも特に強調されなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ChatGPT is notorious for its intransparent behavior. This paper tries to shed
light on this, providing an in-depth analysis of the dark personality traits
and conspiracy beliefs of GPT-3.5 and GPT-4. Different psychological tests and
questionnaires were employed, including the Dark Factor Test, the Mach-IV
Scale, the Generic Conspiracy Belief Scale, and the Conspiracy Mentality Scale.
The responses were analyzed computing average scores, standard deviations, and
significance tests to investigate differences between GPT-3.5 and GPT-4. For
traits that have shown to be interdependent in human studies, correlations were
considered. Additionally, system roles corresponding to groups that have shown
distinct answering behavior in the corresponding questionnaires were applied to
examine the models' ability to reflect characteristics associated with these
roles in their responses. Dark personality traits and conspiracy beliefs were
not particularly pronounced in either model with little differences between
GPT-3.5 and GPT-4. However, GPT-4 showed a pronounced tendency to believe in
information withholding. This is particularly intriguing given that GPT-4 is
trained on a significantly larger dataset than GPT-3.5. Apparently, in this
case an increased data exposure correlates with a greater belief in the control
of information. An assignment of extreme political affiliations increased the
belief in conspiracy theories. Test sequencing affected the models' responses
and the observed correlations, indicating a form of contextual memory.
- Abstract(参考訳): ChatGPTは不透明な振る舞いで有名だ。
本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を詳細に分析する。
ダークファクタテスト,mach-iv尺度,ジェネリック共謀信念尺度,共謀精神尺度など,心理的テストとアンケートの相違がみられた。
GPT-3.5 と GPT-4 の差を調べるために, 計算平均スコア, 標準偏差, 重要度試験を行った。
人間の研究における相互依存性を示す特徴について,相関性を検討した。
また,質問紙に異なる回答行動を示したグループに対応するシステムの役割を,これらの役割に関連づけられた特徴を反映するモデルの能力について検討した。
GPT-3.5とGPT-4の差がほとんどない暗黒性格特性と陰謀信念はどちらのモデルでも顕著に発音されなかった。
しかし, GPT-4は情報保持の傾向が顕著であった。
GPT-4はGPT-3.5よりもはるかに大きなデータセットで訓練されているため、特に興味深い。
この場合、データ露出の増加は、情報の制御に対するより大きな信念と相関しているようだ。
極端な政治的提携の割り当ては陰謀論に対する信念を増大させた。
テストシーケンシングはモデルの応答と観測された相関に影響し、文脈記憶の形を示している。
関連論文リスト
- Is GPT-4 Less Politically Biased than GPT-3.5? A Renewed Investigation of ChatGPT's Political Biases [0.0]
本稿では,ChatGPTの政治的バイアスと性格特性について検討し,特にGPT-3.5とGPT-4を比較した。
政治コンパステストとビッグファイブパーソナリティテストはそれぞれのシナリオに100回採用されました。
その結果, GPT-3.5 と GPT-4 の違いを解析するために, 計算平均, 標準偏差, 重要度試験を行った。
人間の研究に相互依存していることが示されている特徴について、相関関係が発見された。
論文 参考訳(メタデータ) (2024-10-28T13:32:52Z) - Irrelevant Alternatives Bias Large Language Model Hiring Decisions [0.0]
このアトラクション効果は、劣る候補の存在が優れた候補をより魅力的にするときに生じる。
本研究は,GPT-3.5とGPT-4のアトラクション効果が,リクルーターの役割を担っていることを示すものである。
論文 参考訳(メタデータ) (2024-09-04T10:37:36Z) - Are Large Language Models Strategic Decision Makers? A Study of Performance and Bias in Two-Player Non-Zero-Sum Games [56.70628673595041]
大規模言語モデル (LLM) は現実世界での利用が増えているが、その戦略的意思決定能力はほとんど探索されていない。
本研究は,Stag Hunt と Prisoner Dilemma のカノニカルゲーム理論2人プレイヤ非ゼロサムゲームにおける LLM の性能とメリットについて検討する。
GPT-3.5, GPT-4-Turbo, GPT-4o, Llama-3-8Bの構造化評価は, これらのゲームにおいて決定を行う場合, 以下の系統的バイアスの少なくとも1つの影響を受けていることを示す。
論文 参考訳(メタデータ) (2024-07-05T12:30:02Z) - An Empirical Analysis on Large Language Models in Debate Evaluation [10.677407097411768]
GPT-3.5 や GPT-4 のような先進大言語モデル (LLM) の機能と固有バイアスを議論評価の文脈で検討する。
GPT-3.5 と GPT-4 の両者に一貫した偏りがみられた。
また, GPT-3.5 および GPT-4 の語彙バイアスも明らかにした。
論文 参考訳(メタデータ) (2024-05-28T18:34:53Z) - Unveiling Divergent Inductive Biases of LLMs on Temporal Data [4.561800294155325]
本研究は、時間データ解析におけるGPT-3.5およびGPT-4モデルの性能評価に焦点をあてる。
特定の時間的関係に対する偏見が明らかになり、GPT-3.5は暗黙的イベントと明示的イベントの両方のQAフォーマットで「AFTER」を優先する一方、GPT-4は「BEFORE」に傾いている。
論文 参考訳(メタデータ) (2024-04-01T19:56:41Z) - Instructed to Bias: Instruction-Tuned Language Models Exhibit Emergent Cognitive Bias [57.42417061979399]
近年の研究では、インストラクションチューニング(IT)と人間フィードバック(RLHF)による強化学習によって、大規模言語モデル(LM)の能力が劇的に向上していることが示されている。
本研究では,ITとRLHFがLMの意思決定と推論に与える影響について検討する。
以上の結果から,GPT-3,Mistral,T5ファミリーの各種モデルにおけるこれらのバイアスの存在が示唆された。
論文 参考訳(メタデータ) (2023-08-01T01:39:25Z) - How is ChatGPT's behavior changing over time? [72.79311931941876]
2023年3月から6月にかけてのGPT-3.5およびGPT-4の評価を行った。
GPT-3.5とGPT-4の両方の性能と挙動は時間とともに大きく変化することがわかった。
論文 参考訳(メタデータ) (2023-07-18T06:56:08Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Is GPT-4 a Good Data Analyst? [67.35956981748699]
我々は、GPT-4を、広範囲のドメインのデータベースでエンドツーエンドのデータ分析を行うためのデータ分析であると考えている。
我々は,複数の専門家データアナリストとGPT-4のパフォーマンスを体系的に比較するために,タスク固有の評価指標を設計する。
実験の結果, GPT-4はヒトに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-05-24T11:26:59Z) - Humans in Humans Out: On GPT Converging Toward Common Sense in both
Success and Failure [0.0]
GPT-3, GPT-3.5, GPT-4は多量の人為的テキストで訓練された。
これらの例の59%に対して, GPT-3 は ETR 予測出力の証拠を示した。
GPT-3では18%, GPT-3.5では33%, GPT-4では34%であった。
論文 参考訳(メタデータ) (2023-03-30T10:32:18Z) - Evaluating Psychological Safety of Large Language Models [72.88260608425949]
我々は,大規模言語モデル(LLM)の心理的安全性を評価するために,バイアスのないプロンプトを設計した。
短い暗黒トライアド(SD-3)とビッグファイブインベントリ(BFI)の2つのパーソナリティテストを用いて5種類のLDMを試験した。
毒性を減らすための安全基準を微調整したものの、InstructGPT, GPT-3.5, GPT-4は依然として暗い性格パターンを示した。
直接選好最適化を用いたBFIからの反応を微調整したLlama-2-chat-7Bは、モデルの心理的毒性を効果的に低減する。
論文 参考訳(メタデータ) (2022-12-20T18:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。