論文の概要: Exploring the psychology of GPT-4's Moral and Legal Reasoning
- arxiv url: http://arxiv.org/abs/2308.01264v1
- Date: Wed, 2 Aug 2023 16:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 12:11:22.749468
- Title: Exploring the psychology of GPT-4's Moral and Legal Reasoning
- Title(参考訳): GPT-4の道徳と法的推論の心理学的考察
- Authors: Guilherme F. C. F. Almeida, Jos\'e Luiz Nunes, Neele Engelmann, Alex
Wiegmann, Marcelo de Ara\'ujo
- Abstract要約: 我々は、GPT-4の道徳的・法的推論を調査するために心理学的手法を用いる。
人間とAIの反応には高い相関関係があるが、その間にはいくつかの重要な系統的な違いがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models have been used as the foundation of highly
sophisticated artificial intelligences, capable of delivering human-like
responses to probes about legal and moral issues. However, these models are
unreliable guides to their own inner workings, and even the engineering teams
behind their creation are unable to explain exactly how they came to develop
all of the capabilities they currently have. The emerging field of machine
psychology seeks to gain insight into the processes and concepts that these
models possess. In this paper, we employ the methods of psychology to probe
into GPT-4's moral and legal reasoning. More specifically, we investigate the
similarities and differences between GPT-4 and humans when it comes to
intentionality ascriptions, judgments about causation, the morality of
deception, moral foundations, the impact of moral luck on legal judgments, the
concept of consent, and rule violation judgments. We find high correlations
between human and AI responses, but also several significant systematic
differences between them. We conclude with a discussion of the philosophical
implications of our findings.
- Abstract(参考訳): 大規模言語モデルは高度に洗練された人工知能の基礎として使われ、法と道徳に関する調査に人間のような応答を届けることができる。
しかし、これらのモデルは自分たちの内部の作業に対する信頼できないガイドであり、彼らの背後にあるエンジニアリングチームでさえ、彼らが現在持っているすべての機能をどのように開発するのかを正確に説明できない。
機械心理学の新興分野は、これらのモデルが持つプロセスや概念についての洞察を得ようとしている。
本稿では,GPT-4の道徳的・法的理由を探るため,心理学的手法を用いる。
具体的には, GPT-4 と人間との類似性, 因果関係の判断, 虚偽の道徳性, 道徳的基盤, 道徳的運が法的判断に与える影響, 同意概念, ルール違反判断について検討する。
人間とAIの反応には高い相関関係があるが、その間にはいくつかの重要な系統的な違いがある。
結論として、発見の哲学的意味に関する議論を締めくくった。
関連論文リスト
- One fish, two fish, but not the whole sea: Alignment reduces language models' conceptual diversity [2.5975241792179378]
研究者は大規模言語モデル(LLM)を人間の行動研究の代替として使用することを提案した。
トレーニング後のアライメント(RLHFまたはRLAIF)がモデルの内部多様性に影響を及ぼすかどうかが議論されている。
我々は、シミュレーションされた個体の内部変動と集団レベルの変動を関連づけることで、合成合成LLMの「人口」の概念的多様性を測定する新しい方法を用いる。
論文 参考訳(メタデータ) (2024-11-07T04:38:58Z) - Mind Scramble: Unveiling Large Language Model Psychology Via Typoglycemia [27.650551131885152]
大規模言語モデル(LLM)の研究は、物理世界の複雑なタスクに対処する上で有望であることを示している。
GPT-4のような強力なLDMは、人間のような認知能力を示し始めていることが研究で示唆されている。
論文 参考訳(メタデータ) (2024-10-02T15:47:25Z) - PersLLM: A Personified Training Approach for Large Language Models [66.16513246245401]
社会実践, 一貫性, 動的発達という, 心理学に根ざした個性の原則を統合したPersLLMを提案する。
モデルパラメータに直接パーソナリティ特性を組み込み、誘導に対するモデルの抵抗性を高め、一貫性を高め、パーソナリティの動的進化を支援する。
論文 参考訳(メタデータ) (2024-07-17T08:13:22Z) - The Good, the Bad, and the Hulk-like GPT: Analyzing Emotional Decisions of Large Language Models in Cooperation and Bargaining Games [9.82711167146543]
本稿では,Large Language Models (LLMs) の意思決定に関する新しい方法論を紹介する。
感情がLLMのパフォーマンスに大きく影響を与え、より最適な戦略の開発につながることを示す。
驚くべきことに、感情的な刺激、特に怒りの感情は、GPT-4の「超人的」アライメントを妨害する可能性がある。
論文 参考訳(メタデータ) (2024-06-05T14:08:54Z) - Exploring and steering the moral compass of Large Language Models [55.2480439325792]
大規模言語モデル(LLM)は、様々な分野における自動化と意思決定の推進の中心となっている。
本研究は,その道徳的特徴を評価するために,最も先進的なLCMの総合的比較分析を提案する。
論文 参考訳(メタデータ) (2024-05-27T16:49:22Z) - Exploring the Frontiers of LLMs in Psychological Applications: A Comprehensive Review [4.147674289030404]
大規模言語モデル(LLM)は、人間の認知と行動の側面をシミュレートする可能性がある。
LLMは、文献レビュー、仮説生成、実験的なデザイン、実験的な主題、データ分析、学術的な執筆、心理学におけるピアレビューのための革新的なツールを提供する。
データプライバシ、心理的研究にLLMを使うことの倫理的意味、モデルの制限をより深く理解する必要がある、といった問題があります。
論文 参考訳(メタデータ) (2024-01-03T03:01:29Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Investigating Large Language Models' Perception of Emotion Using
Appraisal Theory [3.0902630634005797]
大規模言語モデル (LLM) は近年大きく進歩し、現在一般に使われている。
本研究では,評価・対処理論のレンズによる感情知覚について検討する。
SCPQ を OpenAI, davinci-003, ChatGPT, GPT-4 の3つの最近の LLM に適用し,評価理論と人体データによる予測結果と比較した。
論文 参考訳(メタデータ) (2023-10-03T16:34:47Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Revisiting the Reliability of Psychological Scales on Large Language Models [62.57981196992073]
本研究の目的は,大規模言語モデルにパーソナリティアセスメントを適用することの信頼性を明らかにすることである。
GPT-3.5、GPT-4、Gemini-Pro、LLaMA-3.1などのモデル毎の2,500設定の分析により、様々なLCMがビッグファイブインベントリに応答して一貫性を示すことが明らかになった。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。