論文の概要: Artificial Intelligence and Dual Contract
- arxiv url: http://arxiv.org/abs/2303.12350v1
- Date: Wed, 22 Mar 2023 07:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:00:50.279947
- Title: Artificial Intelligence and Dual Contract
- Title(参考訳): 人工知能と二重契約
- Authors: Wuming Fu and Qian Qi
- Abstract要約: 本研究は,人工知能(Multi-agent Q-learning)をベースとした,二元主主語問題に対する作業者共用契約モデルにおけるアルゴリズムの挙動について考察する。
AIアルゴリズムは、外部のガイダンスやコミュニケーションなしに、インセンティブに適合した契約を自律的に設計することを学ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the dramatic progress of artificial intelligence algorithms in recent
times, it is hoped that algorithms will soon supplant human decision-makers in
various fields, such as contract design. We analyze the possible consequences
by experimentally studying the behavior of algorithms powered by Artificial
Intelligence (Multi-agent Q-learning) in a workhorse \emph{dual contract} model
for dual-principal-agent problems. We find that the AI algorithms autonomously
learn to design incentive-compatible contracts without external guidance or
communication among themselves. We emphasize that the principal, powered by
distinct AI algorithms, can play mixed-sum behavior such as collusion and
competition. We find that the more intelligent principals tend to become
cooperative, and the less intelligent principals are endogenizing myopia and
tend to become competitive. Under the optimal contract, the lower contract
incentive to the agent is sustained by collusive strategies between the
principals. This finding is robust to principal heterogeneity, changes in the
number of players involved in the contract, and various forms of uncertainty.
- Abstract(参考訳): 近年の人工知能アルゴリズムの劇的な進歩により、アルゴリズムはすぐに契約設計など様々な分野で人間の意思決定者を置き換えることが期待されている。
本研究では,二元原理エージェント問題に対するワークホース \emph{dual contract}モデルにおいて,人工知能(マルチエージェントq-learning)を用いたアルゴリズムの動作を実験的に検討することで,その可能性を分析する。
aiアルゴリズムは、外部のガイダンスやコミュニケーションなしにインセンティブ互換の契約を自律的に設計することを学びます。
異なるAIアルゴリズムを駆使したプリンシパルは、共謀や競争のような混合サム動作をすることができることを強調する。
より知的なプリンシパルは協力的になりがちであり、知的でないプリンシパルは内在性ミオピアであり、競争力を持つ傾向にある。
最適な契約の下では、エージェントに対する低い契約インセンティブは、プリンシパル間の協調戦略によって持続される。
この発見は、主要な不均一性、契約に関わるプレイヤーの数の変化、および様々な不確実性に対して堅牢である。
関連論文リスト
- Rationality based Innate-Values-driven Reinforcement Learning [1.8220718426493654]
本来の価値はエージェントの本質的なモチベーションを表しており、それはエージェントの本来の関心や目標を追求する好みを反映している。
これはAIエージェントの固有値駆動(IV)行動を記述するための優れたモデルである。
本稿では,階層型強化学習モデルを提案する。
論文 参考訳(メタデータ) (2024-11-14T03:28:02Z) - Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Artificial Intelligence and Strategic Decision-Making: Evidence from Entrepreneurs and Investors [1.1060425537315088]
本稿では、企業における戦略的意思決定(SDM)プロセスに人工知能(AI)がどのような影響を与えるかを検討する。
我々は、AIが既存のSDMツールをどのように強化するかを説明し、主要なアクセラレータプログラムとスタートアップコンペティションから経験的な証拠を提供する。
SDMの根底にある重要な認知過程である探索、表現、集約について考察する。
論文 参考訳(メタデータ) (2024-08-16T15:46:15Z) - Principal-Agent Reinforcement Learning: Orchestrating AI Agents with Contracts [20.8288955218712]
本稿では,マルコフ決定プロセス(MDP)のエージェントを一連の契約でガイドするフレームワークを提案する。
我々は,主観とエージェントの方針を反復的に最適化するメタアルゴリズムを提示し,分析する。
次に,本アルゴリズムを深層Q-ラーニングで拡張し,近似誤差の存在下での収束度を解析する。
論文 参考訳(メタデータ) (2024-07-25T14:28:58Z) - Contractual Reinforcement Learning: Pulling Arms with Invisible Hands [68.77645200579181]
本稿では,契約設計によるオンライン学習問題において,利害関係者の経済的利益を整合させる理論的枠組みを提案する。
計画問題に対して、遠目エージェントに対する最適契約を決定するための効率的な動的プログラミングアルゴリズムを設計する。
学習問題に対して,契約の堅牢な設計から探索と搾取のバランスに至るまでの課題を解き放つために,非回帰学習アルゴリズムの汎用設計を導入する。
論文 参考訳(メタデータ) (2024-07-01T16:53:00Z) - Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - Interactive Autonomous Navigation with Internal State Inference and
Interactivity Estimation [58.21683603243387]
本稿では,関係時間的推論を伴う3つの補助的タスクを提案し,それらを標準のディープラーニングフレームワークに統合する。
これらの補助的なタスクは、他の対話的エージェントの行動パターンを推測するための追加の監視信号を提供する。
提案手法は,標準評価指標の観点から,頑健かつ最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-27T18:57:42Z) - A Game-Theoretic Framework for AI Governance [8.658519485150423]
規制当局とAI企業間の戦略的相互作用は、Stackelbergのゲームを連想させる固有の構造を持っていることを示す。
本稿では,AIガバナンスのためのゲーム理論モデリングフレームワークを提案する。
私たちの知る限りでは、この研究はAIガバナンスの分析と構造化にゲーム理論を使った最初のものである。
論文 参考訳(メタデータ) (2023-05-24T08:18:42Z) - Examining the Differential Risk from High-level Artificial Intelligence
and the Question of Control [0.0]
将来のAI能力の範囲と範囲は、依然として重要な不確実性である。
AIの不透明な意思決定プロセスの統合と監視の程度には懸念がある。
本研究では、AIリスクをモデル化し、代替先分析のためのテンプレートを提供する階層的な複雑なシステムフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-06T15:46:02Z) - Learning Dynamic Mechanisms in Unknown Environments: A Reinforcement
Learning Approach [130.9259586568977]
本稿では,複数ラウンドの対話を通して動的ビックレー・クラーク・グローブ(VCG)機構を回復するための新しい学習アルゴリズムを提案する。
当社のアプローチの重要な貢献は、報酬のないオンライン強化学習(RL)を取り入れて、リッチな政策分野の探索を支援することである。
論文 参考訳(メタデータ) (2022-02-25T16:17:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。