論文の概要: Behavioral Economics of AI: LLM Biases and Corrections
- arxiv url: http://arxiv.org/abs/2602.09362v1
- Date: Tue, 10 Feb 2026 03:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.346312
- Title: Behavioral Economics of AI: LLM Biases and Corrections
- Title(参考訳): AIの行動経済学 - LLMのバイアスと補正
- Authors: Pietro Bini, Lin William Cong, Xing Huang, Lawrence J. Jin,
- Abstract要約: 大規模言語AIモデル(LLM)は、経済と財政の判断において体系的な行動バイアスを示す。
嗜好に基づくタスクでは、モデルがより進歩するにつれて、応答はより人間らしくなる。
信念に基づくタスクでは、高度な大規模モデルはしばしば有理応答を生成する。
- 参考スコア(独自算出の注目度): 0.37318062488817705
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Do generative AI models, particularly large language models (LLMs), exhibit systematic behavioral biases in economic and financial decisions? If so, how can these biases be mitigated? Drawing on the cognitive psychology and experimental economics literatures, we conduct the most comprehensive set of experiments to date$-$originally designed to document human biases$-$on prominent LLM families across model versions and scales. We document systematic patterns in LLM behavior. In preference-based tasks, responses become more human-like as models become more advanced or larger, while in belief-based tasks, advanced large-scale models frequently generate rational responses. Prompting LLMs to make rational decisions reduces biases.
- Abstract(参考訳): ジェネレーティブAIモデル、特に大規模言語モデル(LLM)は、経済的および財政的な決定において、体系的な行動バイアスを示すか?
もしそうなら、これらのバイアスを緩和するにはどうすればよいのか?
認知心理学と実験経済学の文献に基づいて、我々は、人間の偏見を文書化するための最も包括的な実験セットを、モデルバージョンとスケールにわたって$-$onの著名なLLMファミリーで実施する。
LLM行動の系統的パターンを文書化する。
嗜好に基づくタスクでは、モデルがより進んだり大きくなったりすると、反応はより人間らしくなり、一方で信念に基づくタスクでは、高度な大規模モデルはしばしば合理的な応答を生成する。
LLMを合理的な決定に向けることでバイアスを減らします。
関連論文リスト
- Large Language Models Develop Novel Social Biases Through Adaptive Exploration [7.787973834947505]
大規模言語モデルは、人工的な人口集団に関する新しい社会的バイアスを自然に生み出すことができることを示す。
これらのバイアスは高度に階層化されたタスク割り当てをもたらす。
探索を明示的に動機付けることは、階層化を最も強力に減少させる。
論文 参考訳(メタデータ) (2025-11-08T21:58:26Z) - Your AI, Not Your View: The Bias of LLMs in Investment Analysis [62.388554963415906]
金融において、Large Language Models (LLMs) は、事前訓練されたパラメトリック知識とリアルタイム市場データとの相違から生じる、頻繁な知識紛争に直面している。
これらの対立は、モデル固有のバイアスが制度的目的と誤認される現実世界の投資サービスにおいて特に問題となる。
本研究では,このような紛争シナリオにおける創発的行動を調べるための実験的枠組みを提案し,投資分析におけるバイアスの定量的分析を行う。
論文 参考訳(メタデータ) (2025-07-28T16:09:38Z) - Addressing Bias in LLMs: Strategies and Application to Fair AI-based Recruitment [49.81946749379338]
この研究は、トランスフォーマーベースのシステムの能力を分析して、データに存在する人口統計バイアスを学習する。
最終ツールにおける偏りを緩和する手段として,学習パイプラインからの性別情報を削減するためのプライバシー向上フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T15:29:43Z) - Gender Bias of LLM in Economics: An Existentialism Perspective [1.024113475677323]
本稿では,大言語モデル(LLM)における性別バイアスについて検討する。
LLMは、明示的なジェンダーマーカーなしでもジェンダーステレオタイプを補強する。
LLMのバイアスは意図しない欠陥ではなく、合理的な処理の体系的な結果であると主張する。
論文 参考訳(メタデータ) (2024-10-14T01:42:01Z) - Cognitive Bias in Decision-Making with LLMs [19.87475562475802]
大規模言語モデル(LLM)は、幅広い意思決定タスクをサポートするツールとして大きな可能性を秘めている。
LLMは保護されたグループに対する社会的バイアスを継承し、認知バイアスと機能的に類似している。
私たちの研究は、LLMの認知バイアスを発見し、評価し、緩和するために設計されたフレームワークであるBiasBusterを紹介します。
論文 参考訳(メタデータ) (2024-02-25T02:35:56Z) - Do LLMs exhibit human-like response biases? A case study in survey
design [66.1850490474361]
大規模言語モデル(LLM)が人間の反応バイアスをどの程度反映しているかについて検討する。
アンケート調査では, LLMが人間のような応答バイアスを示すかどうかを評価するためのデータセットとフレームワークを設計した。
9つのモデルに対する総合的な評価は、一般のオープンかつ商用のLCMは、一般的に人間のような振る舞いを反映しないことを示している。
論文 参考訳(メタデータ) (2023-11-07T15:40:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。