論文の概要: Managing multiple agents by automatically adjusting incentives
- arxiv url: http://arxiv.org/abs/2409.02960v1
- Date: Tue, 3 Sep 2024 18:41:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-07 01:16:35.458544
- Title: Managing multiple agents by automatically adjusting incentives
- Title(参考訳): インセンティブの自動調整による複数エージェントの管理
- Authors: Shunichi Akatsuka, Yaemi Teramoto, Aaron Courville,
- Abstract要約: 我々は、社会全体に利益をもたらす目標に向けて、自己関心のAIエージェントを働かせる方法を模索する。
本研究では,特定の行動にインセンティブを割り当てることで,エージェントのインタラクションを仲介するマネージャエージェントを追加する手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the coming years, AI agents will be used for making more complex decisions, including in situations involving many different groups of people. One big challenge is that AI agent tends to act in its own interest, unlike humans who often think about what will be the best for everyone in the long run. In this paper, we explore a method to get self-interested agents to work towards goals that benefit society as a whole. We propose a method to add a manager agent to mediate agent interactions by assigning incentives to certain actions. We tested our method with a supply-chain management problem and showed that this framework (1) increases the raw reward by 22.2%, (2) increases the agents' reward by 23.8%, and (3) increases the manager's reward by 20.1%.
- Abstract(参考訳): 今後数年間、AIエージェントは、多くの異なる人々のグループに関わる状況を含む、より複雑な意思決定に使用されるだろう。
ひとつ大きな課題は、AIエージェントが自分自身の興味を持って行動する傾向があることです。
本稿では,社会全体に利益をもたらす目標に向けて,利己的なエージェントを働かせる方法を検討する。
本研究では,特定の行動にインセンティブを割り当てることで,エージェントのインタラクションを仲介するマネージャエージェントを追加する手法を提案する。
本手法をサプライチェーン管理問題で検証し,(1)生報酬を22.2%増加させ,(2)エージェントの報酬を23.8%増加させ,(3)管理者の報酬を20.1%増加させることを示した。
関連論文リスト
- Exploration and Persuasion [58.87314871998078]
我々は、自己関心のあるエージェントが利用したいときの探索にインセンティブを与える方法を示す。
不確実性の下で決定を下す利己的なエージェントの集団を考える。
彼らは新しい情報を取得し、良い決定を下すためにこの情報を「発見」する。
これは、探査が費用がかかるためであるが、将来多くのエージェントにその利点が広がるためである。
論文 参考訳(メタデータ) (2024-10-22T15:13:13Z) - Principal-Agent Reward Shaping in MDPs [50.914110302917756]
主要な問題とは、ある政党が他の政党に代わって行動し、利害対立を引き起こすことである。
本研究では,主役とエージェントが異なる報酬関数を持つ2人プレイのスタックゲームについて検討し,エージェントは両プレイヤーに対してMDPポリシーを選択する。
この結果は,有限の地平線を持つ木と決定論的決定過程を確立した。
論文 参考訳(メタデータ) (2023-12-30T18:30:44Z) - DCIR: Dynamic Consistency Intrinsic Reward for Multi-Agent Reinforcement
Learning [84.22561239481901]
本稿では,エージェントの行動が他のエージェントの行動と一致しているかどうかを学習するための新しいアプローチを提案する。
マルチエージェント粒子, Google Research Football および StarCraft II Micromanagement を含む複数の環境における DCIR の評価を行った。
論文 参考訳(メタデータ) (2023-12-10T06:03:57Z) - Evidence of behavior consistent with self-interest and altruism in an
artificially intelligent agent [2.1016374925364616]
オープンAIによって開発された大規模言語モデルからなるAIエージェント間の利他的行動をテストするためのインセンティブ付き実験を提案する。
この研究でもっとも高度化されたAIエージェントだけが、非社会的決定タスクにおいて、その報酬を最大化していることがわかった。
また、このAIエージェントは、ディクテーターゲームにおいて最も多彩な利他的行動を示し、ゲーム内の他の人間との共有率に類似している。
論文 参考訳(メタデータ) (2023-01-05T23:30:29Z) - Measuring an artificial intelligence agent's trust in humans using
machine incentives [2.1016374925364616]
人間に対するAIエージェントの信頼を評価することは難しい。
本稿では,AIエージェントのアルゴリズムやゴールオリエンテーションを変更することなく,機械決定をインセンティブ化する手法を提案する。
我々の実験は、これまでで最も先進的なAI言語モデルの一つがインセンティブに反応して社会行動を変えることを示唆している。
論文 参考訳(メタデータ) (2022-12-27T06:05:49Z) - The Importance of Credo in Multiagent Learning [5.334505575267924]
本稿では,複数のグループに構成されたシステム内のエージェントに対する,多目的最適化のモデルであるクレドを提案する。
結果から,チームメイトやシステム全体の利益は,グローバルな成果を達成するために完全に整合する必要はないことが示唆された。
論文 参考訳(メタデータ) (2022-04-15T14:12:13Z) - Learning Altruistic Behaviours in Reinforcement Learning without
External Rewards [9.3000873953175]
ジェネリック強化学習エージェントは、他人に対して利他的に振る舞うように訓練することができる。
このようなアプローチは、利他的エージェントがそれらの目標を達成するために協力できるように、他のエージェントの目標が知られていると仮定する。
我々の非監督エージェントは、協調的に働くように明示的に訓練されたエージェントと同等に行動できることが示される。
論文 参考訳(メタデータ) (2021-07-20T16:19:39Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Scalable Multi-Agent Inverse Reinforcement Learning via
Actor-Attention-Critic [54.2180984002807]
マルチエージェント逆逆強化学習 (MA-AIRL) は, 単エージェントAIRLをマルチエージェント問題に適用する最近の手法である。
本稿では,従来の手法よりもサンプル効率が高く,スケーラブルなマルチエージェント逆RLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-02-24T20:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。