論文の概要: Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming
- arxiv url: http://arxiv.org/abs/2502.06976v1
- Date: Mon, 10 Feb 2025 19:16:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:06:44.928879
- Title: Who is Helping Whom? Analyzing Inter-dependencies to Evaluate Cooperation in Human-AI Teaming
- Title(参考訳): 誰が誰を助けているのか?人間-AIチームにおける協力評価のための相互依存の分析
- Authors: Upasana Biswas, Siddhant Bhambri, Subbarao Kambhampati,
- Abstract要約: 本稿では, エージェントが相互の行動にどの程度依存しているかを測定するために, 相互依存の概念を提案する。
私たちは、MARL for HATでトレーニングされた最先端のエージェントと、人気のあるオーバークッキングドメインの学習された人間モデルとをペアにし、これらのヒューマンエージェントチームのチームパフォーマンスを評価します。
- 参考スコア(独自算出の注目度): 14.489157453882767
- License:
- Abstract: The long-standing research challenges of Human-AI Teaming(HAT) and Zero-shot Cooperation(ZSC) have been tackled by applying multi-agent reinforcement learning(MARL) to train an agent by optimizing the environment reward function and evaluating their performance through task performance metrics such as task reward. However, such evaluation focuses only on task completion, while being agnostic to `how' the two agents work with each other. Specifically, we are interested in understanding the cooperation arising within the team when trained agents are paired with humans. To formally address this problem, we propose the concept of interdependence to measure how much agents rely on each other's actions to achieve the shared goal, as a key metric for evaluating cooperation in human-agent teams. Towards this, we ground this concept through a symbolic formalism and define evaluation metrics that allow us to assess the degree of reliance between the agents' actions. We pair state-of-the-art agents trained through MARL for HAT, with learned human models for the the popular Overcooked domain, and evaluate the team performance for these human-agent teams. Our results demonstrate that trained agents are not able to induce cooperative behavior, reporting very low levels of interdependence across all the teams. We also report that teaming performance of a team is not necessarily correlated with the task reward.
- Abstract(参考訳): HAT(Human-AI Teaming)とZSC(Zero-shot Cooperation)の長年の研究課題は、マルチエージェント強化学習(MARL)を用いて、環境報酬関数を最適化し、タスク報酬などのタスクパフォーマンス指標を用いて、そのパフォーマンスを評価することでエージェントの訓練に取り組んできた。
しかし、このような評価はタスク完了にのみ焦点をあてる一方で、2つのエージェントが互いにどのように振る舞うかを知らない。
具体的には、トレーニングされたエージェントが人間とペアになったときにチーム内で発生する協力を理解することに興味があります。
そこで我々は,この課題に対処するために,人間とエージェントの協力関係を評価するための重要な指標として,エージェントが相互の行動にどの程度依存しているかを測定するための相互依存の概念を提案する。
そこで我々は,この概念を象徴的な形式主義を通じて基礎づけ,エージェントの行動間の信頼度を評価するための評価指標を定義する。
私たちは、MARL for HATでトレーニングされた最先端のエージェントと、人気のあるオーバークッキングドメインの学習された人間モデルとをペアにし、これらのヒューマンエージェントチームのチームパフォーマンスを評価します。
その結果、訓練されたエージェントは、すべてのチーム間で相互依存のレベルが極めて低いことを報告し、協調行動を引き起こすことができないことが示された。
また、チームのチームパフォーマンスがタスク報酬と必ずしも相関していないことも報告します。
関連論文リスト
- Collaborative Gym: A Framework for Enabling and Evaluating Human-Agent Collaboration [51.452664740963066]
Collaborative Gymは、エージェント、人間、タスク環境間の非同期で三分割的なインタラクションを可能にするフレームワークである。
シミュレーション条件と実環境条件の両方において,Co-Gymを3つの代表的なタスクでインスタンス化する。
その結果、協調作業員はタスクパフォーマンスにおいて、完全に自律的なエージェントよりも一貫して優れていたことが判明した。
論文 参考訳(メタデータ) (2024-12-20T09:21:15Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Large Language Model-based Human-Agent Collaboration for Complex Task
Solving [94.3914058341565]
複雑なタスク解決のためのLarge Language Models(LLM)に基づくヒューマンエージェントコラボレーションの問題を紹介する。
Reinforcement Learning-based Human-Agent Collaboration method, ReHACを提案する。
このアプローチには、タスク解決プロセスにおける人間の介入の最も急進的な段階を決定するために設計されたポリシーモデルが含まれている。
論文 参考訳(メタデータ) (2024-02-20T11:03:36Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Warmth and competence in human-agent cooperation [0.7237068561453082]
近年の研究では、深層強化学習で訓練されたAIエージェントが人間と協調できることが示されている。
われわれは2人プレイのソーシャルジレンマであるCoinsで深層強化学習エージェントを訓練している。
参加者の温かさと能力に対する認識は、異なるエージェントに対する表現された嗜好を予測する。
論文 参考訳(メタデータ) (2022-01-31T18:57:08Z) - Resonating Minds -- Emergent Collaboration Through Hierarchical Active
Inference [0.0]
精神状態(意図,目標)のレベルでの自動調整プロセスが,協調的な問題解決につながるかを検討する。
協調エージェント(HAICA)の階層的アクティブ推論モデルを提案する。
本研究では,信念共鳴と能動的推論により,迅速かつ効率的なエージェント協調が可能であり,協調認知エージェントのビルディングブロックとして機能することを示す。
論文 参考訳(メタデータ) (2021-12-02T13:23:44Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Watch-And-Help: A Challenge for Social Perception and Human-AI
Collaboration [116.28433607265573]
我々は、AIエージェントでソーシャルインテリジェンスをテストするための課題であるWatch-And-Help(WAH)を紹介する。
WAHでは、AIエージェントは、人間のようなエージェントが複雑な家庭用タスクを効率的に実行するのを助ける必要がある。
マルチエージェントの家庭環境であるVirtualHome-Socialを構築し、計画と学習ベースのベースラインを含むベンチマークを提供する。
論文 参考訳(メタデータ) (2020-10-19T21:48:31Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。