論文の概要: Optimizing Risk-averse Human-AI Hybrid Teams
- arxiv url: http://arxiv.org/abs/2403.08386v1
- Date: Wed, 13 Mar 2024 09:49:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:27.896159
- Title: Optimizing Risk-averse Human-AI Hybrid Teams
- Title(参考訳): リスク-逆ヒューマン-AIハイブリッドチームの最適化
- Authors: Andrew Fuchs, Andrea Passarella, and Marco Conti
- Abstract要約: 本稿では,標準化された強化学習スキームを通じて,最良デリゲート法を学習するマネージャを提案する。
いくつかのグリッド環境において,マネージャのパフォーマンスの最適性を示す。
結果から、マネージャは望ましいデリゲートをうまく習得でき、その結果、チームパスは、ほぼ、あるいは正確には最適であることがわかった。
- 参考スコア(独自算出の注目度): 1.433758865948252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We anticipate increased instances of humans and AI systems working together
in what we refer to as a hybrid team. The increase in collaboration is expected
as AI systems gain proficiency and their adoption becomes more widespread.
However, their behavior is not error-free, making hybrid teams a very suitable
solution. As such, we consider methods for improving performance for these
teams of humans and AI systems. For hybrid teams, we will refer to both the
humans and AI systems as agents. To improve team performance over that seen for
agents operating individually, we propose a manager which learns, through a
standard Reinforcement Learning scheme, how to best delegate, over time, the
responsibility of taking a decision to any of the agents. We further guide the
manager's learning so they also minimize how many changes in delegation are
made resulting from undesirable team behavior. We demonstrate the optimality of
our manager's performance in several grid environments which include failure
states which terminate an episode and should be avoided. We perform our
experiments with teams of agents with varying degrees of acceptable risk, in
the form of proximity to a failure state, and measure the manager's ability to
make effective delegation decisions with respect to its own risk-based
constraints, then compare these to the optimal decisions. Our results show our
manager can successfully learn desirable delegations which result in team paths
near/exactly optimal with respect to path length and number of delegations.
- Abstract(参考訳): 私たちは、ハイブリッドチームと呼ばれる方法で一緒に働く人間とAIシステムのインスタンスの増加を期待しています。
AIシステムが習熟し、採用が広まるにつれて、コラボレーションの増加が期待される。
しかしながら、彼らの振る舞いはエラーのないものではなく、ハイブリッドチームが非常に適切なソリューションになります。
そこで我々は,これらのチームとAIシステムの性能向上手法を検討する。
ハイブリッドチームでは、人間とAIシステムの両方をエージェントと呼びます。
個々に運営するエージェントのチームパフォーマンスを改善するために,標準的な強化学習方式,最高の委譲方法,時間の経過とともに各エージェントに決定を下す責任を学習するマネージャを提案する。
さらにマネージャの学習をガイドし、望ましくないチームの振る舞いによるデリゲートの変更回数を最小限にします。
いくつかのグリッド環境では、エピソードを終了して回避すべき障害状態を含む、マネージャのパフォーマンスの最適性を示す。
障害状態に近い形で、許容できるリスクの度合いの異なるエージェントチームで実験を行い、マネージャが自身のリスクベースの制約に対して効果的なデリゲート決定を行う能力を計測し、これらを最適な決定と比較します。
その結果、マネージャは望ましいデリゲートの学習に成功し、その結果、パスの長さやデリゲートの数に関して、チームパスがほぼ正確に最適であることがわかった。
関連論文リスト
- Symmetry-Breaking Augmentations for Ad Hoc Teamwork [10.014956508924842]
多くのコラボレーティブな設定では、人工知能(AI)エージェントは未知または以前は観測されていなかった戦略を使用する新しいチームメイトに適応できなければならない。
我々は,SBA(Symsymmetric-breaking Augmentation)を導入し,SBA(Symsymmetric-Flipping Operation)を適用して,チームメイトの行動の多様性を高める。
実験的な2つの設定でこれを実証し,従来のアドホックチームワークによりカードゲーム「はなび」におけるアプローチが改善したことを示す。
論文 参考訳(メタデータ) (2024-02-15T14:49:28Z) - Optimizing Delegation in Collaborative Human-AI Hybrid Teams [1.433758865948252]
我々は、1人のチームメンバー(コントロールエージェント)だけがチームのコントロールとして振る舞うことを許可されたハイブリッドチームのケースに対処する。
チームの外部オブザーバとして学ぶAIマネージャの追加を提案する。
我々は,人間ドライバーと自律運転システムからなるハイブリッドエージェントチームの場合をシミュレートした運転シナリオで,マネージャのパフォーマンスを実証した。
論文 参考訳(メタデータ) (2024-02-08T12:04:43Z) - Optimizing delegation between human and AI collaborative agents [1.6114012813668932]
私たちは、潜在的なパフォーマンス上の欠陥に関してデリゲート決定を行うために、デリゲートマネージャエージェントを訓練します。
我々のフレームワークは、エージェントをマッチングのダイナミクスに制限することなく、チームパフォーマンスの観察を通して学習する。
この結果から,環境の異なる表現の下で運用するエージェントチームによる委譲決定の実施をマネージャが学べることが判明した。
論文 参考訳(メタデータ) (2023-09-26T07:23:26Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Compensating for Sensing Failures via Delegation in Human-AI Hybrid
Systems [0.0]
我々は、管理エージェントがいつ委任代行を行うかを特定することを任務とするハイブリッドな人間-AIチームについて考察する。
我々は、環境コンテキストが知覚障害にどのように貢献するか、または悪化するかをモデル化する。
本稿では,強化学習(RL)マネージャがコンテキストデリゲーションアソシエーションをいかに修正できるかを示す。
論文 参考訳(メタデータ) (2023-03-02T14:27:01Z) - Coach-assisted Multi-Agent Reinforcement Learning Framework for
Unexpected Crashed Agents [120.91291581594773]
本稿では,予期せぬクラッシュを伴う協調型マルチエージェント強化学習システムの公式な定式化について述べる。
本稿では,教師支援型多エージェント強化学習フレームワークを提案する。
私たちの知る限りでは、この研究はマルチエージェントシステムにおける予期せぬクラッシュを初めて研究したものです。
論文 参考訳(メタデータ) (2022-03-16T08:22:45Z) - Explore and Control with Adversarial Surprise [78.41972292110967]
強化学習(Reinforcement Learning, RL)は、目標指向のポリシーを学習するためのフレームワークである。
本稿では,RLエージェントが経験した驚きの量と競合する2つのポリシーを相殺する対戦ゲームに基づく,新しい教師なしRL手法を提案する。
本手法は, 明確な相転移を示すことによって, 複雑なスキルの出現につながることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:40Z) - Coach-Player Multi-Agent Reinforcement Learning for Dynamic Team
Composition [88.26752130107259]
現実世界のマルチエージェントシステムでは、異なる能力を持つエージェントがチーム全体の目標を変更することなく参加または離脱する可能性がある。
この問題に取り組むコーチ・プレイヤー・フレームワーク「COPA」を提案します。
1)コーチと選手の両方の注意メカニズムを採用し、2)学習を正規化するための変動目標を提案し、3)コーチが選手とのコミュニケーションのタイミングを決定するための適応的なコミュニケーション方法を設計する。
論文 参考訳(メタデータ) (2021-05-18T17:27:37Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。