論文の概要: Empathy and the Right to Be an Exception: What LLMs Can and Cannot Do
- arxiv url: http://arxiv.org/abs/2401.14523v1
- Date: Thu, 25 Jan 2024 21:30:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 16:40:03.777843
- Title: Empathy and the Right to Be an Exception: What LLMs Can and Cannot Do
- Title(参考訳): 共感と例外になる権利 - LLMができることとできないこと
- Authors: William Kidder, Jason D'Cruz, and Kush R. Varshney
- Abstract要約: 我々は、大きな言語モデルが共感できないことが、個人が例外である権利を尊重することを妨げるかどうかを問う。
LLMは、自分のケースが信念、欲望、意図といった内的精神状態に基づいて異なるという個人の主張を真剣に考えることができるだろうか。
例外的事例を考慮に入れた共感の使用が本質的あるいは単なる実用的価値を持つか否かを考察して結論を導いた。
- 参考スコア(独自算出の注目度): 16.734679201317896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Advances in the performance of large language models (LLMs) have led some
researchers to propose the emergence of theory of mind (ToM) in artificial
intelligence (AI). LLMs can attribute beliefs, desires, intentions, and
emotions, and they will improve in their accuracy. Rather than employing the
characteristically human method of empathy, they learn to attribute mental
states by recognizing linguistic patterns in a dataset that typically do not
include that individual. We ask whether LLMs' inability to empathize precludes
them from honoring an individual's right to be an exception, that is, from
making assessments of character and predictions of behavior that reflect
appropriate sensitivity to a person's individuality. Can LLMs seriously
consider an individual's claim that their case is different based on internal
mental states like beliefs, desires, and intentions, or are they limited to
judging that case based on its similarities to others? We propose that the
method of empathy has special significance for honoring the right to be an
exception that is distinct from the value of predictive accuracy, at which LLMs
excel. We conclude by considering whether using empathy to consider exceptional
cases has intrinsic or merely practical value and we introduce conceptual and
empirical avenues for advancing this investigation.
- Abstract(参考訳): 大規模言語モデル(LLM)の性能向上により、人工知能(AI)における心の理論(ToM)の出現が提案されている研究者もいる。
LLMは信念、欲望、意図、感情に特化し、正確性を改善することができる。
特徴的な人間の共感法を採用するのではなく、通常その個人を含まないデータセットの言語パターンを認識することで、精神状態の属性を学習する。
LLMが共感できないことは、個々人の個性に対する適切な敏感さを反映した性格評価や行動予測を行うことから、個々人の例外となる権利を尊重することを妨げるかどうかを問う。
llmは、個人の主張が信念、欲望、意図のような内的精神状態に基づいて異なるという主張を真剣に考えることができるか、あるいは、そのケースを他人との類似性に基づいて判断することに限定されるのか?
本稿では,LLMが優れている予測精度の値とは異なる例外となる権利を尊重する上で,共感の方法が特に重要であることを提案する。
本研究は, 例外的事例に対する共感の活用が本質的あるいは単なる実用的価値を持つか否かを考察し, 本研究を進めるための概念的, 経験的方法を紹介する。
関連論文リスト
- FairMindSim: Alignment of Behavior, Emotion, and Belief in Humans and LLM Agents Amid Ethical Dilemmas [23.26678104324838]
FairMindSimを導入し、不公平なシナリオを通じて道徳的ジレンマをシミュレートした。
我々はLLMエージェントを用いて人間の行動をシミュレートし,様々な段階のアライメントを確保した。
以上の結果から,GPT-4oは社会的正義の感覚が強く,人間はより豊かな感情を呈することが明らかとなった。
論文 参考訳(メタデータ) (2024-10-14T11:39:05Z) - GPT-4 Emulates Average-Human Emotional Cognition from a Third-Person Perspective [1.642094639107215]
まず最初に、脳神経活動のパターンを見つけるために設計された感情誘発刺激を慎重に構築する。
以上の結果から, GPT-4は特に精度が高いことが示唆された。
GPT-4の解釈は,自己評価よりも,他者の感情に対する人間の判断と密接に一致していることがわかった。
論文 参考訳(メタデータ) (2024-08-11T01:22:09Z) - Quantifying AI Psychology: A Psychometrics Benchmark for Large Language Models [57.518784855080334]
大きな言語モデル(LLM)は例外的なタスク解決能力を示しており、人間に似た役割を担っている。
本稿では,LLMにおける心理学的次元を調査するための枠組みとして,心理学的識別,評価データセットのキュレーション,結果検証による評価について述べる。
本研究では,個性,価値観,感情,心の理論,モチベーション,知性の6つの心理学的側面を網羅した総合的心理測定ベンチマークを導入する。
論文 参考訳(メタデータ) (2024-06-25T16:09:08Z) - Challenging the Validity of Personality Tests for Large Language Models [2.9123921488295768]
大規模言語モデル(LLM)は、テキストベースのインタラクションにおいて、ますます人間らしく振る舞う。
人格検査に対するLLMの反応は、人間の反応から体系的に逸脱する。
論文 参考訳(メタデータ) (2023-11-09T11:54:01Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z) - MoCa: Measuring Human-Language Model Alignment on Causal and Moral
Judgment Tasks [49.60689355674541]
認知科学の豊富な文献は人々の因果関係と道徳的直観を研究してきた。
この研究は、人々の判断に体系的に影響を及ぼす多くの要因を明らかにした。
大規模言語モデル(LLM)が、人間の参加者と一致するテキストベースのシナリオについて因果的、道徳的な判断を下すかどうかを検証する。
論文 参考訳(メタデータ) (2023-10-30T15:57:32Z) - Emotionally Numb or Empathetic? Evaluating How LLMs Feel Using EmotionBench [83.41621219298489]
心理学からの感情評価理論を用いて,Large Language Models (LLMs) の人為的能力を評価する。
我々は、研究の中心となる8つの感情を引き出すのに有効な400以上の状況を含むデータセットを収集した。
我々は世界中の1200人以上の被験者を対象に人間による評価を行った。
論文 参考訳(メタデータ) (2023-08-07T15:18:30Z) - Emotional Intelligence of Large Language Models [9.834823298632374]
大規模言語モデル(LLM)は多くの分野において顕著な能力を示している。
しかし、現実世界の応用にとって重要な人間の感情や価値観との整合性は、体系的に評価されていない。
そこで我々は,感情認識,解釈,理解を含むLLMの感情知能(EI)を評価した。
論文 参考訳(メタデータ) (2023-07-18T07:49:38Z) - Heterogeneous Value Alignment Evaluation for Large Language Models [91.96728871418]
大規模言語モデル(LLM)は、その価値を人間のものと整合させることを重要視している。
本研究では,LLMと不均一値の整合性を評価するため,不均一値アライメント評価(HVAE)システムを提案する。
論文 参考訳(メタデータ) (2023-05-26T02:34:20Z) - EMP-EVAL: A Framework for Measuring Empathy in Open Domain Dialogues [0.0]
EMP-EVALは単純だが効果的な自動共感評価法である。
提案手法は感情,認知,情緒的共感の影響を受ける。
我々の測定値が人間の嗜好と相関し、人間の判断と同等の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-01-29T18:42:19Z) - Evaluating and Inducing Personality in Pre-trained Language Models [78.19379997967191]
人間の個性理論を機械行動研究のツールとして活用することで,心理測定研究からインスピレーションを得た。
これらの疑問に答えるために,機械の動作を研究するためのMachine Personality Inventory(MPI)ツールを紹介した。
MPIは、ビッグファイブ・パーソナリティ・ファクター(Big Five Personality Factors、ビッグファイブ・パーソナリティ・ファクター)理論とパーソナリティ評価在庫に基づく標準化されたパーソナリティ・テストに従う。
パーソナリティ・プロンプト法(P2法)を考案し、特定のパーソナリティを持つLSMを制御可能な方法で誘導する。
論文 参考訳(メタデータ) (2022-05-20T07:32:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。