論文の概要: Large Language Newsvendor: Decision Biases and Cognitive Mechanisms
- arxiv url: http://arxiv.org/abs/2512.12552v1
- Date: Sun, 14 Dec 2025 04:51:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.311338
- Title: Large Language Newsvendor: Decision Biases and Cognitive Mechanisms
- Title(参考訳): 大言語ニュースベンダ:決定バイアスと認知メカニズム
- Authors: Jifei Liu, Zhi Chen, Yuanguang Zhong,
- Abstract要約: 大規模言語モデル(LLM)は、ビジネス意思決定にますます統合されている。
LLMは人間の認知バイアスを再現し増幅する。
これは特にサプライチェーン管理のような高い運用状況において重要である。
- 参考スコア(独自算出の注目度): 2.7070404673380817
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Problem definition: Although large language models (LLMs) are increasingly integrated into business decision making, their potential to replicate and even amplify human cognitive biases cautions a significant, yet not well-understood, risk. This is particularly critical in high-stakes operational contexts like supply chain management. To address this, we investigate the decision-making patterns of leading LLMs using the canonical newsvendor problem in a dynamic setting, aiming to identify the nature and origins of their cognitive biases. Methodology/results: Through dynamic, multi-round experiments with GPT-4, GPT-4o, and LLaMA-8B, we tested for five established decision biases. We found that LLMs consistently replicated the classic ``Too Low/Too High'' ordering bias and significantly amplified other tendencies like demand-chasing behavior compared to human benchmarks. Our analysis uncovered a ``paradox of intelligence'': the more sophisticated GPT-4 demonstrated the greatest irrationality through overthinking, while the efficiency-optimized GPT-4o performed near-optimally. Because these biases persist even when optimal formulas are provided, we conclude they stem from architectural constraints rather than knowledge gaps. Managerial implications: First, managers should select models based on the specific task, as our results show that efficiency-optimized models can outperform more complex ones on certain optimization problems. Second, the significant amplification of bias by LLMs highlights the urgent need for robust human-in-the-loop oversight in high-stakes decisions to prevent costly errors. Third, our findings suggest that designing structured, rule-based prompts is a practical and effective strategy for managers to constrain models' heuristic tendencies and improve the reliability of AI-assisted decisions.
- Abstract(参考訳): 問題の定義: 大規模言語モデル(LLM)は、ビジネス上の意思決定にますます統合されていますが、人間の認知バイアスを再現し、増幅する可能性も、重要で、十分に理解されていないリスクを警告します。
これは特にサプライチェーン管理のような高い運用状況において重要である。
そこで,本稿では,認知バイアスの性質と起源を明らかにすることを目的として,正規ニュースベンダ問題を用いたLLMの意思決定パターンを動的に検討する。
方法: GPT-4, GPT-4o, LLaMA-8Bを用いた動的多ラウンド実験により, 5つの決定バイアスについて検討した。
LLMは古典的な ‘Too Low/Too High’ の順序バイアスを一貫して再現し、人間のベンチマークと比べて需要充足行動などの他の傾向を著しく増幅した。
より洗練された GPT-4 は過剰思考による最大の不合理性を示し,効率最適化 GPT-4o はほぼ最適に動作した。
これらのバイアスは最適な公式が提供されても持続するため、知識ギャップよりもアーキテクチャ上の制約が原因であると結論付けている。
マネージャの意味: まず、マネージャは特定のタスクに基づいてモデルを選択するべきです。
第二に、LCMによるバイアスの顕著な増幅は、コストのかかるエラーを防ぐための高い意思決定において、堅牢なループ間監視の必要性が緊急に必要であることを示している。
第三に、構造化されたルールベースのプロンプトを設計することは、モデルがヒューリスティックな傾向を制限し、AI支援による意思決定の信頼性を向上させるための実践的で効果的な戦略であることを示唆している。
関連論文リスト
- Automated Optimization Modeling through Expert-Guided Large Language Model Reasoning [43.63419208391747]
本稿では,最適化プロセスを自動化するチェーン・オブ・シント推論を通じて,専門家レベルの最適化モデリングの原則を活用する新しいフレームワークを提案する。
また、ロジスティクス領域からの新しい最適化モデリングベンチマークであるLogiORを導入し、標準化されたアノテーションに関するより複雑な問題を含む。
論文 参考訳(メタデータ) (2025-08-20T04:14:54Z) - Self-Adaptive Cognitive Debiasing for Large Language Models in Decision-Making [71.71796367760112]
大規模言語モデル(LLM)は意思決定アプリケーションをサポートする可能性を示している。
我々は,自己適応型認知脱バイアス(SACD)という認知脱バイアス手法を提案する。
オープンウェイトとクローズドウェイトの両方を用いた金融・医療・法的意思決定タスクにおけるSACDの評価を行った。
論文 参考訳(メタデータ) (2025-04-05T11:23:05Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Balancing Rigor and Utility: Mitigating Cognitive Biases in Large Language Models for Multiple-Choice Questions [0.46873264197900916]
認知バイアスが合理的な偏差やショートカットによって意思決定効率を高めることを示す。
モデレーションと禁忌オプションを導入することで、エラー率を減らし、意思決定精度を改善し、意思決定率を最適化する。
このアプローチは、認知バイアスを活用する新しい方法を提供し、大きな言語モデルの実用性を改善する。
論文 参考訳(メタデータ) (2024-06-16T16:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。