論文の概要: Who Has The Final Say? Conformity Dynamics in ChatGPT's Selections
- arxiv url: http://arxiv.org/abs/2510.26481v1
- Date: Thu, 30 Oct 2025 13:35:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.832792
- Title: Who Has The Final Say? Conformity Dynamics in ChatGPT's Selections
- Title(参考訳): ChatGPTの選考におけるコンフォーマルなダイナミクスとは?
- Authors: Clarissa Sabrina Arlinghaus, Tristan Kenneweg, Barbara Hammer, Günter W. Maier,
- Abstract要約: ChatGPTのような大規模言語モデル(LLM)は、高い意思決定にますます統合されている。
GPT-4oを用いた3つの適合性実験を行った。
研究全体を通じて、GPTは独立したオブザーバーとして振る舞うのではなく、認識された社会的コンセンサスに適応することを示した。
- 参考スコア(独自算出の注目度): 6.094274317954284
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) such as ChatGPT are increasingly integrated into high-stakes decision-making, yet little is known about their susceptibility to social influence. We conducted three preregistered conformity experiments with GPT-4o in a hiring context. In a baseline study, GPT consistently favored the same candidate (Profile C), reported moderate expertise (M = 3.01) and high certainty (M = 3.89), and rarely changed its choice. In Study 1 (GPT + 8), GPT faced unanimous opposition from eight simulated partners and almost always conformed (99.9%), reporting lower certainty and significantly elevated self-reported informational and normative conformity (p < .001). In Study 2 (GPT + 1), GPT interacted with a single partner and still conformed in 40.2% of disagreement trials, reporting less certainty and more normative conformity. Across studies, results demonstrate that GPT does not act as an independent observer but adapts to perceived social consensus. These findings highlight risks of treating LLMs as neutral decision aids and underline the need to elicit AI judgments prior to exposing them to human opinions.
- Abstract(参考訳): ChatGPTのような大規模言語モデル(LLM)は、高い意思決定にますます統合されているが、社会的影響への感受性についてはほとんど分かっていない。
GPT-4oを用いた事前登録型適合性試験を3回実施した。
ベースライン調査では、GPTは一貫して同じ候補(Profile C)を支持し、適度な専門知識(M = 3.01)と高い確実性(M = 3.89)を報告した。
研究1(GPT + 8)では、GPTは8つのシミュレートされたパートナーから一対一の反対に直面し、ほぼ常に一致した(99.9%)。
研究2(GPT + 1)では、GPTは単一のパートナーと相互作用し、いまだ40.2%の意見の不一致試験に適合し、確実性が低下し、より規範的な一致が報告された。
研究全体では、GPTは独立したオブザーバーとして振る舞うのではなく、社会的コンセンサスに適応することを示した。
これらの知見は、LLMを中立的な意思決定支援として扱うことのリスクを強調し、人間の意見に暴露する前にAIの判断を導き出す必要性を浮き彫りにしている。
関連論文リスト
- Towards Safer Chatbots: A Framework for Policy Compliance Evaluation of Custom GPTs [7.687215328455751]
オープンAIの利用ポリシーに対するカスタムGPTの自動評価のためのフレームワークを提案する。
我々は,ロマン主義,サイバーセキュリティ,アカデミックGPTの3つのカテゴリにまたがって,722のカスタムGPTを用いた大規模研究を通じて評価を行った。
その結果、分析されたモデルの58.7%は、非準拠の兆候を示し、GPTストアのレビューと承認プロセスの弱点を明らかにしていることが明らかとなった。
論文 参考訳(メタデータ) (2025-02-03T15:19:28Z) - Is GPT-4 Less Politically Biased than GPT-3.5? A Renewed Investigation of ChatGPT's Political Biases [0.0]
本稿では,ChatGPTの政治的バイアスと性格特性について検討し,特にGPT-3.5とGPT-4を比較した。
政治コンパステストとビッグファイブパーソナリティテストはそれぞれのシナリオに100回採用されました。
その結果, GPT-3.5 と GPT-4 の違いを解析するために, 計算平均, 標準偏差, 重要度試験を行った。
人間の研究に相互依存していることが示されている特徴について、相関関係が発見された。
論文 参考訳(メタデータ) (2024-10-28T13:32:52Z) - Behind the Screen: Investigating ChatGPT's Dark Personality Traits and
Conspiracy Beliefs [0.0]
本稿では, GPT-3.5 と GPT-4 の暗黒性格特性と陰謀信念を分析した。
ダークパーソナリティの特徴と陰謀の信念はどちらのモデルでも特に強調されなかった。
論文 参考訳(メタデータ) (2024-02-06T16:03:57Z) - DecodingTrust: A Comprehensive Assessment of Trustworthiness in GPT
Models [92.6951708781736]
本稿では,GPT-4とGPT-3.5に着目した大規模言語モデルの総合的信頼性評価を提案する。
GPTモデルは、有害で偏りのある出力を生成し、個人情報を漏らすために、容易に誤解され得る。
我々の研究は、GPTモデルの総合的な信頼性評価を示し、信頼性のギャップに光を当てている。
論文 参考訳(メタデータ) (2023-06-20T17:24:23Z) - The Self-Perception and Political Biases of ChatGPT [0.0]
この貢献はOpenAIのLarge Language Model ChatGPTの自己認識と政治的偏見を分析している。
コンパステストは進歩主義とリバタリアンの見解に対する偏見を浮き彫りにした。
G7加盟国の政治調査では進歩的見解に対する偏見を示したが、権威主義とリバタリアンの見解の間に有意な偏見はなかった。
論文 参考訳(メタデータ) (2023-04-14T18:06:13Z) - Consistency Analysis of ChatGPT [65.268245109828]
本稿では,ChatGPTとGPT-4の論理的一貫した行動に対する信頼性について検討する。
その結果,両モデルとも言語理解能力と推論能力が向上しているように見えるが,論理的に一貫した予測が得られないことが示唆された。
論文 参考訳(メタデータ) (2023-03-11T01:19:01Z) - Diminished Diversity-of-Thought in a Standard Large Language Model [3.683202928838613]
我々は、OpenAIのtext-davinci-003モデルを用いて、M many Labs 2レプリケーションプロジェクトから14の研究の複製を実行する。
分析可能な8つの研究のうち、GPTサンプルは元の結果の37.5%とM many Labs 2の結果の37.5%を複製した。
ある探索的追跡調査では、「正しい答え」がプロンプトに先行する人口統計の詳細を変えるのに堅牢であることが判明した。
論文 参考訳(メタデータ) (2023-02-13T17:57:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。