論文の概要: Decision and Gender Biases in Large Language Models: A Behavioral Economic Perspective
- arxiv url: http://arxiv.org/abs/2511.12319v1
- Date: Sat, 15 Nov 2025 18:38:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:23.889108
- Title: Decision and Gender Biases in Large Language Models: A Behavioral Economic Perspective
- Title(参考訳): 大規模言語モデルにおける意思決定とジェンダーバイアス:行動経済学的視点
- Authors: Luca Corazzini, Elisa Deriu, Marco Guerzoni,
- Abstract要約: 大規模言語モデル(LLM)は、経済や組織プロセスの仲介をますます進める。
本研究では,高度なLCMが合理的なエージェントとして振る舞うか,古典的意思決定問題に直面した場合の人間の行動傾向を再現するかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) increasingly mediate economic and organisational processes, from automated customer support and recruitment to investment advice and policy analysis. These systems are often assumed to embody rational decision making free from human error; yet they are trained on human language corpora that may embed cognitive and social biases. This study investigates whether advanced LLMs behave as rational agents or whether they reproduce human behavioural tendencies when faced with classic decision problems. Using two canonical experiments in behavioural economics, the ultimatum game and a gambling game, we elicit decisions from two state of the art models, Google Gemma7B and Qwen, under neutral and gender conditioned prompts. We estimate parameters of inequity aversion and loss-aversion and compare them with human benchmarks. The models display attenuated but persistent deviations from rationality, including moderate fairness concerns, mild loss aversion, and subtle gender conditioned differences.
- Abstract(参考訳): 大規模言語モデル(LLM)は、自動化された顧客サポートや採用から投資アドバイス、政策分析まで、経済や組織プロセスの仲介をますます進める。
これらのシステムは、人間の誤りから解放された合理的な決定を具現化していると考えられているが、認知と社会的偏見を組み込んだ人間の言語コーパスで訓練されている。
本研究では,高度なLCMが合理的なエージェントとして振る舞うか,古典的意思決定問題に直面した場合の人間の行動傾向を再現するかを検討する。
行動経済学における2つの標準的な実験、最後通算ゲーム、ギャンブルゲームを用いて、中立的およびジェンダー条件付きプロンプトの下で、Google Gemma7BとQwenの2つの最先端モデルから決定を導き出す。
不等さの逆転と損失の逆転のパラメータを推定し、それらを人間のベンチマークと比較する。
モデルでは、適度な公平さの懸念、軽度の損失回避、微妙な性別条件の違いなど、合理性から遠ざかっているが永続的な逸脱が示される。
関連論文リスト
- Towards Cognitively-Faithful Decision-Making Models to Improve AI Alignment [35.506295119331064]
対比較から認知に忠実な意思決定プロセスを学ぶための公理的アプローチを提案する。
提案したモデルが,人間のペアによる意思決定の事前モデルと一致しているか,あるいは精度を超越しているかを示す。
論文 参考訳(メタデータ) (2025-09-04T17:59:29Z) - Cascaded Language Models for Cost-effective Human-AI Decision-Making [52.81324217423194]
複数の専門分野にまたがってタスクを適応的に委譲するLLM決定フレームワークを提案する。
まず、deferral Policyは、ベースモデルの回答を受け入れるか、あるいは大きなモデルでそれを再生するかを決定する。
第2に、禁忌ポリシーは、カスケードモデル応答が十分に確実であるか、または人間の介入を必要とするかを判定する。
論文 参考訳(メタデータ) (2025-06-13T15:36:22Z) - Gender Bias of LLM in Economics: An Existentialism Perspective [1.024113475677323]
本稿では,大言語モデル(LLM)における性別バイアスについて検討する。
LLMは、明示的なジェンダーマーカーなしでもジェンダーステレオタイプを補強する。
LLMのバイアスは意図しない欠陥ではなく、合理的な処理の体系的な結果であると主張する。
論文 参考訳(メタデータ) (2024-10-14T01:42:01Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Underspecified Human Decision Experiments Considered Harmful [18.27590643693167]
本稿では、統計的決定理論と情報経済学から合成された決定問題の広く適用可能な定義について述べる。
我々は、AIによる意思決定に関する最近の実証研究がこの基準を達成するかどうかを評価する。
論文 参考訳(メタデータ) (2024-01-25T16:21:37Z) - Online Decision Mediation [72.80902932543474]
意思決定支援アシスタントを学習し、(好奇心)専門家の行動と(不完全)人間の行動の仲介役として機能することを検討する。
臨床診断では、完全に自律的な機械行動は倫理的余裕を超えることが多い。
論文 参考訳(メタデータ) (2023-10-28T05:59:43Z) - Limited or Biased: Modeling Sub-Rational Human Investors in Financial
Markets [2.913033886371052]
我々は、強化学習を用いて、人間のサブリレータリティの5つの側面を組み込んだフレキシブルモデルを導入する。
我々は,手作り市場シナリオとSHAP値分析を用いて,サブ専門家の行動を評価する。
論文 参考訳(メタデータ) (2022-10-16T15:50:26Z) - Indecision Modeling [50.00689136829134]
AIシステムは人間の価値観に合わせて行動することが重要である。
人々はしばしば決定的ではなく、特に彼らの決定が道徳的な意味を持つときです。
論文 参考訳(メタデータ) (2020-12-15T18:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。