論文の概要: Economic Rationality under Specialization: Evidence of Decision Bias in AI Agents
- arxiv url: http://arxiv.org/abs/2501.18190v1
- Date: Thu, 30 Jan 2025 07:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-31 15:15:07.384487
- Title: Economic Rationality under Specialization: Evidence of Decision Bias in AI Agents
- Title(参考訳): 専門化下における経済連帯性:AIエージェントにおける決定バイアスのエビデンス
- Authors: ShuiDe Wen, Juan Feng,
- Abstract要約: この研究はさらに、バイオテクノロジーの専門家や経済学者のような専門的なエージェントを水平比較に取り入れている。
その結果、エージェントが専門分野により多くの労力を費やすと、意思決定行動は「合理性シフト」の傾向が強いことが示唆された。
対照的に、GPTやより一般化された基本エージェントは、複数のタスクにまたがるより安定で一貫した合理性を維持している。
- 参考スコア(独自算出の注目度): 1.4942084609038464
- License:
- Abstract: In the study by Chen et al. (2023) [01], the large language model GPT demonstrated economic rationality comparable to or exceeding the average human level in tasks such as budget allocation and risk preference. Building on this finding, this paper further incorporates specialized agents, such as biotechnology experts and economists, for a horizontal comparison to explore whether specialization can enhance or maintain economic rationality equivalent to that of GPT in similar decision-making scenarios. The results indicate that when agents invest more effort in specialized fields, their decision-making behavior is more prone to 'rationality shift,' specifically manifested as increased violations of GARP (Generalized Axiom of Revealed Preference), decreased CCEI (Critical Cost Efficiency Index), and more significant decision deviations under high-risk conditions. In contrast, GPT and more generalized basic agents maintain a more stable and consistent level of rationality across multiple tasks. This study reveals the inherent conflict between specialization and economic rationality, providing new insights for constructing AI decision-making systems that balance specialization and generalization across various scenarios.
- Abstract(参考訳): Chen et al (2023) [01] による研究で、大規模言語モデル GPT は予算配分やリスク優先といったタスクにおいて、平均的な人間水準に匹敵する経済合理性を示した。
本研究は, バイオテクノロジーの専門家や経済学者などの専門エージェントを水平比較し, 同様の意思決定シナリオにおいて, GPTと同等の経済的合理性を高めるか, 維持できるかを検討する。
その結果, エージェントが専門分野により多くの労力を費やすと, その意思決定行動は, GARP(Generalized Axiom of Revealed Preference)の違反の増加, CCEI(Critical Cost efficiency Index)の減少, リスクの高い条件下での決定偏差の増大など, 「合理性シフト」の傾向が強くなることが明らかとなった。
対照的に、GPTやより一般化された基本エージェントは、複数のタスクにまたがるより安定で一貫した合理性を維持している。
本研究は、特殊化と経済的合理性の間に固有の対立を明らかにし、様々なシナリオにまたがる特殊化と一般化のバランスをとるAI意思決定システムを構築するための新たな洞察を提供する。
関連論文リスト
- The Value of Prediction in Identifying the Worst-Off [3.468330970960535]
機械学習は、最も脆弱な個人を特定し、支援するために、政府のプログラムでますます使われている。
本研究は、株式駆動型文脈における予測の福祉的影響と、他の政策レバーとの比較について考察する。
論文 参考訳(メタデータ) (2025-01-31T17:34:53Z) - Beyond Non-Degeneracy: Revisiting Certainty Equivalent Heuristic for Online Linear Programming [18.371947752008744]
この結果から,不確実性等価性は分布の微妙な仮定の下で一様に近い最適後悔を達成できることが示唆された。
以上の結果から,CE は従来の信念とは対照的に,幅広い問題事例に対する退化の呪いを効果的に打ち負かしていると考えられる。
これらの手法は、より広範なオンライン意思決定コンテキストにおける潜在的な応用を見出すことができる。
論文 参考訳(メタデータ) (2025-01-03T09:21:27Z) - Achieving Fairness in Predictive Process Analytics via Adversarial Learning [50.31323204077591]
本稿では、デバイアスフェーズを予測ビジネスプロセス分析に組み込むことの課題に対処する。
本研究の枠組みは, 4つのケーススタディで検証し, 予測値に対する偏り変数の寄与を著しく低減することを示した。
論文 参考訳(メタデータ) (2024-10-03T15:56:03Z) - ABI Approach: Automatic Bias Identification in Decision-Making Under Risk based in an Ontology of Behavioral Economics [46.57327530703435]
損失回避のようなバイアスによって引き起こされる損失に対する優先順位を求めるリスクは、課題を引き起こし、深刻なネガティブな結果をもたらす可能性がある。
本研究は,リスクサーチの選好を自動的に識別し,説明することにより,組織意思決定者を支援する新しいソリューションであるABIアプローチを紹介する。
論文 参考訳(メタデータ) (2024-05-22T23:53:46Z) - Simulating the Economic Impact of Rationality through Reinforcement Learning and Agent-Based Modelling [1.7546137756031712]
我々はエージェントベースモデル(ABM)の能力を拡大するためにマルチエージェント強化学習(RL)を活用している。
RLエージェントは、市場競争のレベルと合理性に応じて、利益を最大化するための3つの異なる戦略を自発的に学習することを示します。
また、独立した政策を持つRLエージェントと、相互にコミュニケーションする能力のないエージェントは、自発的に異なる戦略グループに分離することを学び、市場力と全体的な利益を増大させます。
論文 参考訳(メタデータ) (2024-05-03T15:08:25Z) - Risk-reducing design and operations toolkit: 90 strategies for managing
risk and uncertainty in decision problems [65.268245109828]
本稿では,このような戦略のカタログを開発し,それらのためのフレームワークを開発する。
高い不確実性のために難解であるように見える決定問題に対して、効率的な応答を提供する、と論じている。
次に、多目的最適化を用いた決定理論にそれらを組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2023-09-06T16:14:32Z) - Causal Strategic Learning with Competitive Selection [10.237954203296187]
複数の意思決定者の下で因果戦略学習におけるエージェント選択の問題について検討する。
最適な選択規則は、最適なエージェントを選択することと、エージェントの改善を最大化するためのインセンティブを提供することの間のトレードオフであることを示す。
我々は、真の因果パラメータを回復するために、すべての意思決定者がまとめて採用しなければならない協調プロトコルを提供する。
論文 参考訳(メタデータ) (2023-08-30T18:43:11Z) - Rational Decision-Making Agent with Internalized Utility Judgment [91.80700126895927]
大規模言語モデル(LLM)は目覚ましい進歩を示し、従来のNLPアプリケーションを超えて複雑な多段階決定タスクを実行できるエージェントにLLMを開発するための重要な努力を惹きつけている。
本稿では,RadAgentを提案する。このRadAgentは,経験探索とユーティリティ学習を含む反復的なフレームワークを通じて,合理性の発展を促進する。
ToolBenchデータセットの実験結果は、RadAgentがベースラインよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-24T03:11:45Z) - The AI Economist: Optimal Economic Policy Design via Two-level Deep
Reinforcement Learning [126.37520136341094]
機械学習に基づく経済シミュレーションは強力な政策・メカニズム設計の枠組みであることを示す。
AIエコノミスト(AI Economist)は、エージェントと共同適応するソーシャルプランナーの両方を訓練する2段階のディープRLフレームワークである。
単純な一段階の経済では、AIエコノミストは経済理論の最適税制を回復する。
論文 参考訳(メタデータ) (2021-08-05T17:42:35Z) - Invariant Rationalization [84.1861516092232]
典型的な合理化基準、すなわち最大相互情報(MMI)は、合理性のみに基づいて予測性能を最大化する合理性を見つける。
ゲーム理論の不変な有理化基準を導入し、各環境において同じ予測器を最適にするために、有理を制約する。
理論的にも実証的にも、提案された理性は、素早い相関を除外し、異なるテストシナリオをより一般化し、人間の判断とよく一致させることができることを示す。
論文 参考訳(メタデータ) (2020-03-22T00:50:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。