論文の概要: Do people expect different behavior from large language models acting on their behalf? Evidence from norm elicitations in two canonical economic games
- arxiv url: http://arxiv.org/abs/2601.15312v1
- Date: Wed, 14 Jan 2026 16:07:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.342981
- Title: Do people expect different behavior from large language models acting on their behalf? Evidence from norm elicitations in two canonical economic games
- Title(参考訳): 大規模言語モデルに代表される行動と異なる行動が期待できるか? 2つの標準的な経済ゲームにおける規範的説明から
- Authors: Paweł Niszczota, Elia Antoniou,
- Abstract要約: 我々は、大きな言語モデルが自分自身の代わりに行動するとき、人々が異なる期待を持っているかどうかを調査する。
我々は、Krupka-Weberノルムエレケーションタスクを用いて、社会的適切度評価のシフトを検出する。
結果は,資源分割の方法を決定する機械に対して異なる規範を適用するが,その規範を強制する機械には反対しないことを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While delegating tasks to large language models (LLMs) can save people time, there is growing evidence that offloading tasks to such models produces social costs. We use behavior in two canonical economic games to study whether people have different expectations when decisions are made by LLMs acting on their behalf instead of themselves. More specifically, we study the social appropriateness of a spectrum of possible behaviors: when LLMs divide resources on our behalf (Dictator Game and Ultimatum Game) and when they monitor the fairness of splits of resources (Ultimatum Game). We use the Krupka-Weber norm elicitation task to detect shifts in social appropriateness ratings. Results of two pre-registered and incentivized experimental studies using representative samples from the UK and US (N = 2,658) show three key findings. First, people find that offers from machines - when no acceptance is necessary - are judged to be less appropriate than when they come from humans, although there is no shift in the modal response. Second - when acceptance is necessary - it is more appropriate for a person to reject offers from machines than from humans. Third, receiving a rejection of an offer from a machine is no less socially appropriate than receiving the same rejection from a human. Overall, these results suggest that people apply different norms for machines deciding on how to split resources but are not opposed to machines enforcing the norms. The findings are consistent with offers made by machines now being viewed as having both a cognitive and emotional component.
- Abstract(参考訳): タスクを大きな言語モデル(LLM)に委譲することは時間を節約できるが、そのようなモデルにタスクをオフロードすると社会的コストが発生するという証拠が増えている。
我々は2つの標準的な経済ゲームにおいて、LCMが自身の代わりに行動する場合に、人々が異なる期待を持っているかどうかを研究するために行動を利用する。
より具体的には, LLMが我々の代表的リソース(ディクタゲームとウルティマトゥムゲーム)を分割し, 資源の分割の公正さを監視する場合(ウルティマトゥムゲーム)に, 可能な行動のスペクトルの社会的適切性について検討する。
我々は、Krupka-Weberノルムエレケーションタスクを用いて、社会的適切度評価のシフトを検出する。
英国と米国の代表例(N = 2,658)を用いた2つの事前登録およびインセンティブ付実験の結果は、3つの重要な結果を示している。
第一に、機械からのオファー(受け入れが不要な場合)は人間から来たときよりも適切でないと判断されるが、モーダルの反応は変化しない。
第二に、受け入れが必要な場合、人間よりも機械からのオファーを拒否するのが適切である。
第3に、機械からオファーの拒絶を受けることは、人間から同じ拒絶を受けるのと同じくらい社会的に適切である。
これらの結果は, 資源分割の方法を決定する機械に対して異なる規範を適用するが, 基準を強制する機械には反対しないことを示唆している。
この発見は、現在認知的要素と感情的要素の両方を持つと見なされているマシンによる提案と一致している。
関連論文リスト
- Decision and Gender Biases in Large Language Models: A Behavioral Economic Perspective [0.0]
大規模言語モデル(LLM)は、経済や組織プロセスの仲介をますます進める。
本研究では,高度なLCMが合理的なエージェントとして振る舞うか,古典的意思決定問題に直面した場合の人間の行動傾向を再現するかを検討する。
論文 参考訳(メタデータ) (2025-11-15T18:38:17Z) - Where Fact Ends and Fairness Begins: Redefining AI Bias Evaluation through Cognitive Biases [77.3489598315447]
事実と公正の境界を識別することは有意義な公正性評価に不可欠である,と我々は主張する。
Fact-or-Fair は (i) 客観的なクエリを記述的, 事実に基づく判断, (ii) 主観的クエリを規範的, 公平性に基づく判断に整合させたベンチマークである。
論文 参考訳(メタデータ) (2025-02-09T10:54:11Z) - Large Language Models Assume People are More Rational than We Really are [10.857040292234984]
AIが人と効果的にコミュニケーションするためには、意思決定の仕方を理解する必要があります。
以前の実証的な証拠は、これらの暗黙のモデルが正確であることを示唆しているようである。
人々の選択をシミュレートし、予測する場合は、実際にはそうではありません。
論文 参考訳(メタデータ) (2024-06-24T18:15:27Z) - The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Are Large Language Models Aligned with People's Social Intuitions for Human-Robot Interactions? [7.308479353736709]
大規模言語モデル(LLM)は、ロボット工学、特にハイレベルな行動計画にますます使われている。
本研究では,人間とロボットの相互作用のシナリオにおいて,LLMが人々の直感やコミュニケーションを再現するかどうかを検証する。
視覚モデルでは映像刺激の本質を捉えることができず、LLMは人よりもコミュニケーション行動や行動を評価する傾向にあることを示す。
論文 参考訳(メタデータ) (2024-03-08T22:23:23Z) - Do the Rewards Justify the Means? Measuring Trade-Offs Between Rewards
and Ethical Behavior in the MACHIAVELLI Benchmark [61.43264961005614]
我々は、50万以上のリッチで多様なシナリオを含む134個のChoose-Your-Own-Adventureゲームのベンチマークを開発する。
我々は、エージェントの傾向をパワー・シーキングと評価し、不使用を生じさせ、倫理的違反を犯す。
以上の結果から,エージェントは有能かつ道徳的に行動できることが示唆された。
論文 参考訳(メタデータ) (2023-04-06T17:59:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。