論文の概要: Exploring the psychology of GPT-4's Moral and Legal Reasoning
- arxiv url: http://arxiv.org/abs/2308.01264v1
- Date: Wed, 2 Aug 2023 16:36:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-03 12:11:22.749468
- Title: Exploring the psychology of GPT-4's Moral and Legal Reasoning
- Title(参考訳): GPT-4の道徳と法的推論の心理学的考察
- Authors: Guilherme F. C. F. Almeida, Jos\'e Luiz Nunes, Neele Engelmann, Alex
Wiegmann, Marcelo de Ara\'ujo
- Abstract要約: 我々は、GPT-4の道徳的・法的推論を調査するために心理学的手法を用いる。
人間とAIの反応には高い相関関係があるが、その間にはいくつかの重要な系統的な違いがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models have been used as the foundation of highly
sophisticated artificial intelligences, capable of delivering human-like
responses to probes about legal and moral issues. However, these models are
unreliable guides to their own inner workings, and even the engineering teams
behind their creation are unable to explain exactly how they came to develop
all of the capabilities they currently have. The emerging field of machine
psychology seeks to gain insight into the processes and concepts that these
models possess. In this paper, we employ the methods of psychology to probe
into GPT-4's moral and legal reasoning. More specifically, we investigate the
similarities and differences between GPT-4 and humans when it comes to
intentionality ascriptions, judgments about causation, the morality of
deception, moral foundations, the impact of moral luck on legal judgments, the
concept of consent, and rule violation judgments. We find high correlations
between human and AI responses, but also several significant systematic
differences between them. We conclude with a discussion of the philosophical
implications of our findings.
- Abstract(参考訳): 大規模言語モデルは高度に洗練された人工知能の基礎として使われ、法と道徳に関する調査に人間のような応答を届けることができる。
しかし、これらのモデルは自分たちの内部の作業に対する信頼できないガイドであり、彼らの背後にあるエンジニアリングチームでさえ、彼らが現在持っているすべての機能をどのように開発するのかを正確に説明できない。
機械心理学の新興分野は、これらのモデルが持つプロセスや概念についての洞察を得ようとしている。
本稿では,GPT-4の道徳的・法的理由を探るため,心理学的手法を用いる。
具体的には, GPT-4 と人間との類似性, 因果関係の判断, 虚偽の道徳性, 道徳的基盤, 道徳的運が法的判断に与える影響, 同意概念, ルール違反判断について検討する。
人間とAIの反応には高い相関関係があるが、その間にはいくつかの重要な系統的な違いがある。
結論として、発見の哲学的意味に関する議論を締めくくった。
関連論文リスト
- Scaling Data Diversity for Fine-Tuning Language Models in Human Alignment [84.32768080422349]
人間の好みの調整は、大きな言語モデルが誤解を招くか有害なコンテンツを生成するのを防ぐ。
本研究では, 微調整後のLLMの最終性能と線形相関を示唆し, 即時多様性の新たな定式化を提案する。
論文 参考訳(メタデータ) (2024-03-17T07:08:55Z) - Exploring the Frontiers of LLMs in Psychological Applications: A Comprehensive Review [4.147674289030404]
大規模言語モデル(LLM)は、人間の認知と行動の側面をシミュレートする可能性がある。
LLMは、文献レビュー、仮説生成、実験的なデザイン、実験的な主題、データ分析、学術的な執筆、心理学におけるピアレビューのための革新的なツールを提供する。
データプライバシ、心理的研究にLLMを使うことの倫理的意味、モデルの制限をより深く理解する必要がある、といった問題があります。
論文 参考訳(メタデータ) (2024-01-03T03:01:29Z) - Are You Sure? Challenging LLMs Leads to Performance Drops in The
FlipFlop Experiment [82.60594940370919]
大規模言語モデル(LLM)のマルチターン動作を研究するためのFlipFlop実験を提案する。
モデルが平均46%の時間で回答を反転させ、全てのモデルが最初の予測と最終予測の間に精度を低下させ、平均17%の低下(FlipFlop効果)を示す。
我々はオープンソースのLLMで微調整実験を行い、合成されたデータに対する微調整は、性能劣化を60%低減させることができるが、サイコファンティックな振る舞いを完全には解決できないことを発見した。
論文 参考訳(メタデータ) (2023-11-14T23:40:22Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Investigating Large Language Models' Perception of Emotion Using
Appraisal Theory [3.0902630634005797]
大規模言語モデル (LLM) は近年大きく進歩し、現在一般に使われている。
本研究では,評価・対処理論のレンズによる感情知覚について検討する。
SCPQ を OpenAI, davinci-003, ChatGPT, GPT-4 の3つの最近の LLM に適用し,評価理論と人体データによる予測結果と比較した。
論文 参考訳(メタデータ) (2023-10-03T16:34:47Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
我々は,Large Language Models (LLM) の共感能力を評価することを提案する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Exploring Qualitative Research Using LLMs [8.545798128849091]
この研究は、人間とAIが駆動する大規模言語モデルの理解能力を比較し、比較することを目的としている。
私たちはAlexaアプリのレビューの小さなサンプルを使って実験を行い、最初は人間のアナリストによって分類された。
LLMはこれらのレビューを分類し、それぞれの分類の背後にある理由を提供するよう求められた。
論文 参考訳(メタデータ) (2023-06-23T05:21:36Z) - Revisiting the Reliability of Psychological Scales on Large Language
Models [66.31055885857062]
本研究では,人格評価を大規模言語モデル(LLM)に適用する際の信頼性について検討する。
LLMのパーソナライズに光を当てることで、この分野での今後の探索の道を開くことに努める。
論文 参考訳(メタデータ) (2023-05-31T15:03:28Z) - Machine Psychology: Investigating Emergent Capabilities and Behavior in
Large Language Models Using Psychological Methods [0.0]
大規模言語モデル(LLM)は、現在、人間のコミュニケーションと日常の生活を結び付けるAIシステムの最前線にある。
本稿では「機械心理学」と呼ばれる新しい研究分野を紹介する。
機械心理学研究の方法論的基準を定義しており、特にプロンプトデザインのポリシーに焦点を当てている。
論文 参考訳(メタデータ) (2023-03-24T13:24:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。