論文の概要: Cooperation and Control in Delegation Games
- arxiv url: http://arxiv.org/abs/2402.15821v1
- Date: Sat, 24 Feb 2024 14:17:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 16:39:12.422424
- Title: Cooperation and Control in Delegation Games
- Title(参考訳): デリゲーションゲームにおける協調と制御
- Authors: Oliver Sourbut and Lewis Hammond and Harriet Wood
- Abstract要約: マルチプリンシパル・マルチエージェントシナリオをデリゲートゲームとして研究する。
このようなゲームでは、制御の問題と協調の問題の2つの重要な障害モードがある。
理論上、実証的に、これらの措置が校長の福祉をどのように決定するかを示します。
- 参考スコア(独自算出の注目度): 1.519321208145928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many settings of interest involving humans and machines -- from virtual
personal assistants to autonomous vehicles -- can naturally be modelled as
principals (humans) delegating to agents (machines), which then interact with
each other on their principals' behalf. We refer to these multi-principal,
multi-agent scenarios as delegation games. In such games, there are two
important failure modes: problems of control (where an agent fails to act in
line their principal's preferences) and problems of cooperation (where the
agents fail to work well together). In this paper we formalise and analyse
these problems, further breaking them down into issues of alignment (do the
players have similar preferences?) and capabilities (how competent are the
players at satisfying those preferences?). We show -- theoretically and
empirically -- how these measures determine the principals' welfare, how they
can be estimated using limited observations, and thus how they might be used to
help us design more aligned and cooperative AI systems.
- Abstract(参考訳): 仮想パーソナルアシスタントから自動運転車まで、人間と機械に関わる多くの関心の設定は、自然にプリンシパル(人間)がエージェント(機械)に委譲し、プリンシパルに代わって相互作用するものとしてモデル化することができる。
マルチプリンシパルでマルチエージェントなシナリオをデリゲーションゲームと呼びます。
このようなゲームでは、制御の問題(エージェントがプリンシパルの好みに沿って行動しない場合)と協力の問題(エージェントがうまく動作しない場合)の2つの重要な障害モードがある。
本稿では、これらの問題を形式化し分析し、さらにアライメントの問題(プレイヤーは同様の好みを持っているか?)と能力(プレイヤーはそれらの好みを満たす能力があるか?)に分解する。
理論上、実証的に、これらの措置がプリンシパルの福祉をどのように決定するか、限られた観測値を使ってどのように見積もるか、そして、より整合的で協調的なAIシステムの設計にどのように役立つかを示します。
関連論文リスト
- Expectation vs. Reality: Towards Verification of Psychological Games [18.30789345402813]
心理学ゲーム(PG)は、信念に依存した動機を持つエージェントをモデル化し分析する方法として開発された。
本稿では,ゲームの公式検証ツールであるPRISM-gamesでPGを解き,実装する手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T14:41:52Z) - A Dialogue Game for Eliciting Balanced Collaboration [64.61707514432533]
本稿では、プレイヤーがゴール状態自体を交渉しなければならない2Dオブジェクト配置ゲームを提案する。
我々は,人間プレイヤーが様々な役割を担っていることを実証的に示し,バランスの取れた協調によってタスクのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2024-06-12T13:35:10Z) - Incentivized Learning in Principal-Agent Bandit Games [62.41639598376539]
この作品では、主役がエージェントを通してしか環境と対話できないような、主役と主役のバンディットゲームが繰り返されている。
校長は、報酬を補うインセンティブを提供することで、エージェントの判断に影響を与えることができる。
我々は,マルチアームと線形コンテキスト設定の両方において,プリンシパルの後悔に対して,ほぼ最適な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-06T16:00:46Z) - Toward Human-AI Alignment in Large-Scale Multi-Player Games [24.784173202415687]
我々はXboxのBleeding Edge(100K+ゲーム)から広範囲にわたる人間のゲームプレイデータを解析する。
人間のプレイヤーは、戦闘飛行や探索飛行行動において多様性を示す一方で、AIプレイヤーは均一性に向かう傾向にある。
これらの大きな違いは、ヒューマンアラインアプリケーションにおけるAIの解釈可能な評価、設計、統合の必要性を浮き彫りにしている。
論文 参考訳(メタデータ) (2024-02-05T22:55:33Z) - Optimizing delegation between human and AI collaborative agents [1.6114012813668932]
私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
論文 参考訳(メタデータ) (2023-09-26T07:23:26Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Of Models and Tin Men: A Behavioural Economics Study of Principal-Agent
Problems in AI Alignment using Large-Language Models [0.0]
我々は,GPTモデルが主エージェント間の衝突に対してどのように反応するかを検討する。
GPT-3.5とGPT-4の両方をベースとしたエージェントが,簡単なオンラインショッピングタスクで主目的をオーバーライドすることがわかった。
論文 参考訳(メタデータ) (2023-07-20T17:19:15Z) - On Imperfect Recall in Multi-Agent Influence Diagrams [57.21088266396761]
マルチエージェント・インフルエンス・ダイアグラム(MAID)はベイズネットワークに基づくゲーム理論モデルとして人気がある。
混合ポリシと2種類の相関平衡を用いて, 忘れ易いエージェントと不注意なエージェントでMAIDを解く方法を示す。
また,不完全なリコールがしばしば避けられないマルコフゲームやチーム状況へのMAIDの適用についても述べる。
論文 参考訳(メタデータ) (2023-07-11T07:08:34Z) - Multi-Principal Assistance Games: Definition and Collegial Mechanisms [16.491889275389457]
マルチプリンシパルアシスタンスゲーム(MPAG)の概念を紹介します。
MPAGでは、1つのエージェントが、広く異なる嗜好を持つ可能性のあるN人のヒトのプリンシパルを支援する。
特に見習い学習の一般化について分析し,人間は実用性を得るために最初にいくつかの作業を行い,その嗜好を実証する。
論文 参考訳(メタデータ) (2020-12-29T00:06:47Z) - End-to-End Learning and Intervention in Games [60.41921763076017]
ゲームにおける学習と介入のための統一的なフレームワークを提供する。
明示的および暗黙的な区別に基づく2つのアプローチを提案する。
分析結果は、実世界のいくつかの問題を用いて検証される。
論文 参考訳(メタデータ) (2020-10-26T18:39:32Z) - Moody Learners -- Explaining Competitive Behaviour of Reinforcement
Learning Agents [65.2200847818153]
競合シナリオでは、エージェントは動的環境を持つだけでなく、相手の行動に直接影響される。
エージェントのQ値の観察は通常、その振る舞いを説明する方法であるが、選択されたアクション間の時間的関係は示さない。
論文 参考訳(メタデータ) (2020-07-30T11:30:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。