論文の概要: Artificial Intelligence and Dual Contract
- arxiv url: http://arxiv.org/abs/2303.12350v1
- Date: Wed, 22 Mar 2023 07:31:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 15:00:50.279947
- Title: Artificial Intelligence and Dual Contract
- Title(参考訳): 人工知能と二重契約
- Authors: Wuming Fu and Qian Qi
- Abstract要約: 本研究は,人工知能(Multi-agent Q-learning)をベースとした,二元主主語問題に対する作業者共用契約モデルにおけるアルゴリズムの挙動について考察する。
AIアルゴリズムは、外部のガイダンスやコミュニケーションなしに、インセンティブに適合した契約を自律的に設計することを学ぶ。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the dramatic progress of artificial intelligence algorithms in recent
times, it is hoped that algorithms will soon supplant human decision-makers in
various fields, such as contract design. We analyze the possible consequences
by experimentally studying the behavior of algorithms powered by Artificial
Intelligence (Multi-agent Q-learning) in a workhorse \emph{dual contract} model
for dual-principal-agent problems. We find that the AI algorithms autonomously
learn to design incentive-compatible contracts without external guidance or
communication among themselves. We emphasize that the principal, powered by
distinct AI algorithms, can play mixed-sum behavior such as collusion and
competition. We find that the more intelligent principals tend to become
cooperative, and the less intelligent principals are endogenizing myopia and
tend to become competitive. Under the optimal contract, the lower contract
incentive to the agent is sustained by collusive strategies between the
principals. This finding is robust to principal heterogeneity, changes in the
number of players involved in the contract, and various forms of uncertainty.
- Abstract(参考訳): 近年の人工知能アルゴリズムの劇的な進歩により、アルゴリズムはすぐに契約設計など様々な分野で人間の意思決定者を置き換えることが期待されている。
本研究では,二元原理エージェント問題に対するワークホース \emph{dual contract}モデルにおいて,人工知能(マルチエージェントq-learning)を用いたアルゴリズムの動作を実験的に検討することで,その可能性を分析する。
aiアルゴリズムは、外部のガイダンスやコミュニケーションなしにインセンティブ互換の契約を自律的に設計することを学びます。
異なるAIアルゴリズムを駆使したプリンシパルは、共謀や競争のような混合サム動作をすることができることを強調する。
より知的なプリンシパルは協力的になりがちであり、知的でないプリンシパルは内在性ミオピアであり、競争力を持つ傾向にある。
最適な契約の下では、エージェントに対する低い契約インセンティブは、プリンシパル間の協調戦略によって持続される。
この発見は、主要な不均一性、契約に関わるプレイヤーの数の変化、および様々な不確実性に対して堅牢である。
関連論文リスト
- Position Paper: Agent AI Towards a Holistic Intelligence [53.35971598180146]
エージェントAI - 大きな基盤モデルをエージェントアクションに統合する具体的システム。
本稿では,エージェント・ファウンデーション・モデル(エージェント・ファウンデーション・モデル)を提案する。
論文 参考訳(メタデータ) (2024-02-28T16:09:56Z) - The Rise and Potential of Large Language Model Based Agents: A Survey [91.71061158000953]
大規模言語モデル(LLM)は、人工知能(AGI)の潜在的な火花と見なされる
まず、エージェントの概念を哲学的起源からAI開発まで追跡し、LLMがエージェントに適した基盤である理由を説明します。
単一エージェントシナリオ,マルチエージェントシナリオ,ヒューマンエージェント協調の3つの側面において,LLMベースのエージェントの広範な応用について検討する。
論文 参考訳(メタデータ) (2023-09-14T17:12:03Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Emergent collective intelligence from massive-agent cooperation and
competition [19.75488604218965]
大規模強化学習による人工知能の出現について検討する。
我々はLuxという大規模強化学習環境を提案する。この環境では、2つのチームの動的エージェントと大規模エージェントが限られたリソースを求めてスクランブルし、暗闇から戦う。
論文 参考訳(メタデータ) (2023-01-04T13:23:12Z) - Cooperative Artificial Intelligence [0.0]
我々は,ゲーム理論と人工知能の交わりに関する研究の必要性を論じる。
本稿では,外部エージェントが人工学習者の協調を促進する方法について議論する。
また, 計画エージェントをオフにしても, 結果が一定のゲームにおいて安定であることを示す。
論文 参考訳(メタデータ) (2022-02-20T16:50:37Z) - Adversarial Attacks in Cooperative AI [0.0]
多エージェント環境における単エージェント強化学習アルゴリズムは協調の育成には不十分である。
敵機械学習における最近の研究は、モデルは容易に誤った決定を下すことができることを示している。
協調AIは、以前の機械学習研究では研究されなかった新たな弱点を導入する可能性がある。
論文 参考訳(メタデータ) (2021-11-29T07:34:12Z) - Partner-Aware Algorithms in Decentralized Cooperative Bandit Teams [14.215359943041369]
我々は、より一般的なマルチエージェントコラボレーションの抽象化として、複合報酬を用いた分散マルチエージェント帯域(MAB)問題を提案し、解析する。
本稿では,よく知られた単一エージェント・アッパー信頼境界アルゴリズムを拡張した逐次意思決定のためのパートナー・アウェア戦略を提案する。
提案したパートナー意識戦略は、他の既知の手法よりも優れており、人間による研究は、パートナー意識戦略を実装するAIエージェントと協力することを好むことを示唆している。
論文 参考訳(メタデータ) (2021-10-02T08:17:30Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Future Trends for Human-AI Collaboration: A Comprehensive Taxonomy of
AI/AGI Using Multiple Intelligences and Learning Styles [95.58955174499371]
我々は、複数の人間の知性と学習スタイルの様々な側面を説明し、様々なAI問題領域に影響を及ぼす可能性がある。
未来のAIシステムは、人間のユーザと互いにコミュニケーションするだけでなく、知識と知恵を効率的に交換できる。
論文 参考訳(メタデータ) (2020-08-07T21:00:13Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z) - Learning to Resolve Alliance Dilemmas in Many-Player Zero-Sum Games [22.38765498549914]
我々は多人数ゼロサムゲームの体系的な研究が人工知能研究の重要な要素であると主張している。
対称ゼロサム行列ゲームを用いて、アライアンス形成が社会的ジレンマと見なされることを示す。
我々は、強化学習をピアツーピア契約機構で強化し、アライアンスを発見・実施する方法を示す。
論文 参考訳(メタデータ) (2020-02-27T10:32:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。