論文の概要: Automated Task-Time Interventions to Improve Teamwork using Imitation
Learning
- arxiv url: http://arxiv.org/abs/2303.00413v1
- Date: Wed, 1 Mar 2023 11:09:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 15:06:24.356344
- Title: Automated Task-Time Interventions to Improve Teamwork using Imitation
Learning
- Title(参考訳): 模倣学習によるチームワーク改善のためのタスクタイム自動介入
- Authors: Sangwon Seo, Bing Han and Vaibhav Unhelkar
- Abstract要約: 私たちは、チームメンバー間の調整を改善するための自動化された介入アプローチTICを提示します。
我々はまず、過去のタスク実行データからチームの振る舞いの生成モデルを学ぶ。
次に、学習した生成モデルとチームのタスク目標(共有報酬)を使用して、実行時の介入をアルゴリズム的に生成する。
- 参考スコア(独自算出の注目度): 5.423490734916741
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Effective human-human and human-autonomy teamwork is critical but often
challenging to perfect. The challenge is particularly relevant in time-critical
domains, such as healthcare and disaster response, where the time pressures can
make coordination increasingly difficult to achieve and the consequences of
imperfect coordination can be severe. To improve teamwork in these and other
domains, we present TIC: an automated intervention approach for improving
coordination between team members. Using BTIL, a multi-agent imitation learning
algorithm, our approach first learns a generative model of team behavior from
past task execution data. Next, it utilizes the learned generative model and
team's task objective (shared reward) to algorithmically generate
execution-time interventions. We evaluate our approach in synthetic multi-agent
teaming scenarios, where team members make decentralized decisions without full
observability of the environment. The experiments demonstrate that the
automated interventions can successfully improve team performance and shed
light on the design of autonomous agents for improving teamwork.
- Abstract(参考訳): 効果的な人間と人間と自律的なチームワークは重要だが、しばしば完璧に挑戦する。
この課題は、特に医療や災害対応といった時間クリティカルな領域に関係しており、時間的圧力によって調整が難しくなり、不完全な調整の結果が深刻になる可能性がある。
これらの領域と他の領域におけるチームワークを改善するために、私たちはtic(automated intervention approach)というアプローチを紹介します。
マルチエージェント模倣学習アルゴリズムであるbtilを用いて,過去のタスク実行データから,まずチーム行動の生成モデルを学ぶ。
次に、学習した生成モデルとチームのタスク目標(共有報酬)を使用して、実行時の介入をアルゴリズムで生成する。
チームメンバーが環境の完全な可観測性なしに分散的な決定をする、総合的なマルチエージェントチーム化シナリオにおいて、我々のアプローチを評価する。
実験は、自動介入がチームのパフォーマンスをうまく改善し、チームワークを改善するための自律エージェントの設計に光を当てることを示しています。
関連論文リスト
- Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - A Reinforcement Learning-assisted Genetic Programming Algorithm for Team
Formation Problem Considering Person-Job Matching [70.28786574064694]
解の質を高めるために強化学習支援遺伝的プログラミングアルゴリズム(RL-GP)を提案する。
効率的な学習を通じて得られる超ヒューリスティックなルールは、プロジェクトチームを形成する際の意思決定支援として利用することができる。
論文 参考訳(メタデータ) (2023-04-08T14:32:12Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Coordination with Humans via Strategy Matching [5.072077366588174]
協調作業を行う人間と人間のチームを観察することにより、利用可能なタスク補完戦略を自律的に認識するアルゴリズムを提案する。
隠れマルコフモデルを使って、チームアクションを低次元の表現に変換することで、事前の知識なしに戦略を識別できます。
ロボットポリシーは、未確認のパートナーのタスク戦略に適応するMixture-of-Expertsモデルを構築するための、識別された戦略のそれぞれに基づいて学習される。
論文 参考訳(メタデータ) (2022-10-27T01:00:50Z) - Autonomous Open-Ended Learning of Tasks with Non-Stationary
Interdependencies [64.0476282000118]
固有のモチベーションは、目標間のトレーニング時間を適切に割り当てるタスクに依存しないシグナルを生成することが証明されている。
内在的に動機付けられたオープンエンドラーニングの分野におけるほとんどの研究は、目標が互いに独立しているシナリオに焦点を当てているが、相互依存タスクの自律的な獲得を研究するのはごくわずかである。
特に,タスク間の関係に関する情報をアーキテクチャのより高レベルなレベルで組み込むことの重要性を示す。
そして、自律的に取得したシーケンスを格納する新しい学習層を追加することで、前者を拡張する新しいシステムであるH-GRAILを紹介する。
論文 参考訳(メタデータ) (2022-05-16T10:43:01Z) - Competing Adaptive Networks [56.56653763124104]
適応エージェントのチーム間での分散競争のためのアルゴリズムを開発する。
本稿では,生成的対向ニューラルネットワークの分散学習への応用について述べる。
論文 参考訳(メタデータ) (2021-03-29T14:42:15Z) - Human-Robot Team Coordination with Dynamic and Latent Human Task
Proficiencies: Scheduling with Learning Curves [0.0]
ロボットが人間のチームメイトの相対的な強みと学習能力を探索できる新しい資源調整手法を提案する。
我々は、最新の個人労働者の熟練度を発見しながら、頑健なスケジュールを作成し、評価する。
その結果,人間とロボットのコラボレーションには,探索に有利なスケジューリング戦略が有用であることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T19:44:22Z) - Towards Open Ad Hoc Teamwork Using Graph-based Policy Learning [11.480994804659908]
我々は、さまざまなチーム構成の下でエージェントモデルと共同アクション値モデルを学ぶために、グラフニューラルネットワーク上に構築する。
私たちは、我々のアプローチが、他のエージェントが学習者に与える影響をうまくモデル化し、動的なチーム構成にしっかりと適応するポリシーを導いたことを実証的に実証します。
論文 参考訳(メタデータ) (2020-06-18T10:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。