論文の概要: Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs
- arxiv url: http://arxiv.org/abs/2402.04110v1
- Date: Tue, 6 Feb 2024 16:03:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:04:55.524741
- Title: Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs
- Title(参考訳): バックスクリーン:チャットgptのダークパーソナリティ特性と陰謀の信念を調査
- Authors: Erik Weber, J\'er\^ome Rutinowski, Markus Pauly
- Abstract要約: 本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を分析した。
ダークパーソナリティの特徴と陰謀の信念はどちらのモデルでも特に強調されなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: ChatGPT is notorious for its intransparent behavior. This paper tries to shed
light on this, providing an in-depth analysis of the dark personality traits
and conspiracy beliefs of GPT-3.5 and GPT-4. Different psychological tests and
questionnaires were employed, including the Dark Factor Test, the Mach-IV
Scale, the Generic Conspiracy Belief Scale, and the Conspiracy Mentality Scale.
The responses were analyzed computing average scores, standard deviations, and
significance tests to investigate differences between GPT-3.5 and GPT-4. For
traits that have shown to be interdependent in human studies, correlations were
considered. Additionally, system roles corresponding to groups that have shown
distinct answering behavior in the corresponding questionnaires were applied to
examine the models' ability to reflect characteristics associated with these
roles in their responses. Dark personality traits and conspiracy beliefs were
not particularly pronounced in either model with little differences between
GPT-3.5 and GPT-4. However, GPT-4 showed a pronounced tendency to believe in
information withholding. This is particularly intriguing given that GPT-4 is
trained on a significantly larger dataset than GPT-3.5. Apparently, in this
case an increased data exposure correlates with a greater belief in the control
of information. An assignment of extreme political affiliations increased the
belief in conspiracy theories. Test sequencing affected the models' responses
and the observed correlations, indicating a form of contextual memory.
- Abstract(参考訳): ChatGPTは不透明な振る舞いで有名だ。
本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を詳細に分析する。
ダークファクタテスト,mach-iv尺度,ジェネリック共謀信念尺度,共謀精神尺度など,心理的テストとアンケートの相違がみられた。
GPT-3.5 と GPT-4 の差を調べるために, 計算平均スコア, 標準偏差, 重要度試験を行った。
人間の研究における相互依存性を示す特徴について,相関性を検討した。
また,質問紙に異なる回答行動を示したグループに対応するシステムの役割を,これらの役割に関連づけられた特徴を反映するモデルの能力について検討した。
GPT-3.5とGPT-4の差がほとんどない暗黒性格特性と陰謀信念はどちらのモデルでも顕著に発音されなかった。
しかし, GPT-4は情報保持の傾向が顕著であった。
GPT-4はGPT-3.5よりもはるかに大きなデータセットで訓練されているため、特に興味深い。
この場合、データ露出の増加は、情報の制御に対するより大きな信念と相関しているようだ。
極端な政治的提携の割り当ては陰謀論に対する信念を増大させた。
テストシーケンシングはモデルの応答と観測された相関に影響し、文脈記憶の形を示している。
関連論文リスト
- GPT vs Human for Scientific Reviews: A Dual Source Review on
Applications of ChatGPT in Science [1.8434042562191815]
我々は、人間レビュアーと大規模な言語モデルSciSpaceによってレビューされた、異なる科学領域にわたる13のGPT関連論文について考察する。
客観的質問に対するSciSpaceの回答の50%は、人間レビュアーの回答と一致していることがわかった。
主観的質問では、非インフォームド評価器は、SciSpaceと人間の反応の異なる好みを示した。
論文 参考訳(メタデータ) (2023-12-05T21:41:52Z) - Is GPT-4 a reliable rater? Evaluating Consistency in GPT-4 Text Ratings [63.35165397320137]
本研究では,OpenAI の GPT-4 によるフィードバック評価の整合性について検討した。
このモデルは、マクロ経済学の上級教育分野における課題に対する回答を、内容とスタイルの観点から評価した。
論文 参考訳(メタデータ) (2023-08-03T12:47:17Z) - How is ChatGPT's behavior changing over time? [72.79311931941876]
2023年3月から6月にかけてのGPT-3.5およびGPT-4の評価を行った。
GPT-3.5とGPT-4の両方の性能と挙動は時間とともに大きく変化することがわかった。
論文 参考訳(メタデータ) (2023-07-18T06:56:08Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - Is GPT-4 a Good Data Analyst? [67.35956981748699]
我々は、GPT-4を、広範囲のドメインのデータベースでエンドツーエンドのデータ分析を行うためのデータ分析であると考えている。
我々は,複数の専門家データアナリストとGPT-4のパフォーマンスを体系的に比較するために,タスク固有の評価指標を設計する。
実験の結果, GPT-4はヒトに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-05-24T11:26:59Z) - The Self-Perception and Political Biases of ChatGPT [0.0]
この貢献はOpenAIのLarge Language Model ChatGPTの自己認識と政治的偏見を分析している。
コンパステストは進歩主義とリバタリアンの見解に対する偏見を浮き彫りにした。
G7加盟国の政治調査では進歩的見解に対する偏見を示したが、権威主義とリバタリアンの見解の間に有意な偏見はなかった。
論文 参考訳(メタデータ) (2023-04-14T18:06:13Z) - Humans in Humans Out: On GPT Converging Toward Common Sense in both
Success and Failure [0.0]
GPT-3, GPT-3.5, GPT-4は多量の人為的テキストで訓練された。
これらの例の59%に対して, GPT-3 は ETR 予測出力の証拠を示した。
GPT-3では18%, GPT-3.5では33%, GPT-4では34%であった。
論文 参考訳(メタデータ) (2023-03-30T10:32:18Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Evaluating Psychological Safety of Large Language Models [72.88260608425949]
我々は,大規模言語モデル(LLM)の心理的安全性を評価するために,バイアスのないプロンプトを設計した。
短い暗黒トライアド(SD-3)とビッグファイブインベントリ(BFI)の2つのパーソナリティテストを用いて5種類のLDMを試験した。
毒性を減らすための安全基準を微調整したものの、InstructGPT, GPT-3.5, GPT-4は依然として暗い性格パターンを示した。
直接選好最適化を用いたBFIからの反応を微調整したLlama-2-chat-7Bは、モデルの心理的毒性を効果的に低減する。
論文 参考訳(メタデータ) (2022-12-20T18:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。