論文の概要: Optimizing delegation between human and AI collaborative agents
- arxiv url: http://arxiv.org/abs/2309.14718v2
- Date: Wed, 11 Oct 2023 07:28:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 03:06:16.730650
- Title: Optimizing delegation between human and AI collaborative agents
- Title(参考訳): 人間とAIの協調エージェント間の委譲の最適化
- Authors: Andrew Fuchs, Andrea Passarella, Marco Conti
- Abstract要約: 私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
- 参考スコア(独自算出の注目度): 1.6114012813668932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the context of humans operating with artificial or autonomous agents in a
hybrid team, it is essential to accurately identify when to authorize those
team members to perform actions. Given past examples where humans and
autonomous systems can either succeed or fail at tasks, we seek to train a
delegating manager agent to make delegation decisions with respect to these
potential performance deficiencies. Additionally, we cannot always expect the
various agents to operate within the same underlying model of the environment.
It is possible to encounter cases where the actions and transitions would vary
between agents. Therefore, our framework provides a manager model which learns
through observations of team performance without restricting agents to matching
dynamics. Our results show our manager learns to perform delegation decisions
with teams of agents operating under differing representations of the
environment, significantly outperforming alternative methods to manage the
team.
- Abstract(参考訳): ハイブリッドチームで人為的あるいは自律的なエージェントで操作する人間の文脈では、チームメンバーがいつ行動を起こすかを正確に特定することが不可欠である。
人間と自律的なシステムがタスクで成功するか失敗するかの過去の例を考えると、これらの潜在的なパフォーマンスの欠陥に関して、委譲の決定を下すマネージャエージェントを訓練したいと考えています。
加えて、さまざまなエージェントが環境の同じモデル内で動作することを期待することはできません。
アクションとトランジションがエージェントによって異なるケースに遭遇することが可能である。
そこで本フレームワークは,エージェントを動的に制約することなく,チームパフォーマンスの観察を通じて学習するマネージャモデルを提供する。
以上の結果から,マネージャは,環境の異なる表現の下で活動するエージェントのチームで代表意思決定を行うことを学び,チームを管理するための代替手法を著しく上回っています。
関連論文リスト
- Optimizing Risk-averse Human-AI Hybrid Teams [1.433758865948252]
本稿では,標準化された強化学習スキームを通じて,最良デリゲート法を学習するマネージャを提案する。
いくつかのグリッド環境において,マネージャのパフォーマンスの最適性を示す。
結果から、マネージャは望ましいデリゲートをうまく習得でき、その結果、チームパスは、ほぼ、あるいは正確には最適であることがわかった。
論文 参考訳(メタデータ) (2024-03-13T09:49:26Z) - Optimizing Delegation in Collaborative Human-AI Hybrid Teams [1.433758865948252]
我々は、1人のチームメンバー(コントロールエージェント)だけがチームのコントロールとして振る舞うことを許可されたハイブリッドチームのケースに対処する。
チームの外部オブザーバとして学ぶAIマネージャの追加を提案する。
我々は,人間ドライバーと自律運転システムからなるハイブリッドエージェントチームの場合をシミュレートした運転シナリオで,マネージャのパフォーマンスを実証した。
論文 参考訳(メタデータ) (2024-02-08T12:04:43Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Compensating for Sensing Failures via Delegation in Human-AI Hybrid
Systems [0.0]
我々は、管理エージェントがいつ委任代行を行うかを特定することを任務とするハイブリッドな人間-AIチームについて考察する。
我々は、環境コンテキストが知覚障害にどのように貢献するか、または悪化するかをモデル化する。
本稿では,強化学習(RL)マネージャがコンテキストデリゲーションアソシエーションをいかに修正できるかを示す。
論文 参考訳(メタデータ) (2023-03-02T14:27:01Z) - Task Allocation with Load Management in Multi-Agent Teams [4.844411739015927]
負荷管理を考慮したタスク割り当て学習のための多エージェントチームのための意思決定フレームワークを提案する。
負荷管理がチームのパフォーマンスに与える影響を説明し、例のシナリオでエージェントの振る舞いを探る。
コラボレーションにおけるエージェントの重要性の尺度は、潜在的な過負荷の状況に直面しているときにチームのレジリエンスを推測するために開発されます。
論文 参考訳(メタデータ) (2022-07-17T20:17:09Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Too many cooks: Bayesian inference for coordinating multi-agent
collaboration [55.330547895131986]
協調には、エージェントが行動を調整する必要がある。
人間が協力する能力の根底にあるのは、他人を行動させる隠された精神状態を予測する能力である。
これらの能力を備えた分散型マルチエージェント学習機構であるベイズデリゲーションを開発した。
論文 参考訳(メタデータ) (2020-03-26T07:43:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。