論文の概要: Mixed-Initiative Human-Robot Teaming under Suboptimality with Online Bayesian Adaptation
- arxiv url: http://arxiv.org/abs/2403.16178v1
- Date: Sun, 24 Mar 2024 14:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 17:06:13.331980
- Title: Mixed-Initiative Human-Robot Teaming under Suboptimality with Online Bayesian Adaptation
- Title(参考訳): オンラインベイズ適応による準最適条件下での混合開始型人間ロボットチーム
- Authors: Manisha Natarajan, Chunyue Xue, Sanne van Waveren, Karen Feigh, Matthew Gombolay,
- Abstract要約: 我々は,最適人-エージェントチームの性能向上のための計算モデルと最適化手法を開発した。
我々は,ロボットが逐次意思決定ゲームにおいて,その支援に従おうとする人々の意思を推測できるオンラインベイズアプローチを採用する。
ユーザの好みやチームのパフォーマンスは,ロボットの介入スタイルによって明らかに異なります。
- 参考スコア(独自算出の注目度): 0.6591036379613505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For effective human-agent teaming, robots and other artificial intelligence (AI) agents must infer their human partner's abilities and behavioral response patterns and adapt accordingly. Most prior works make the unrealistic assumption that one or more teammates can act near-optimally. In real-world collaboration, humans and autonomous agents can be suboptimal, especially when each only has partial domain knowledge. In this work, we develop computational modeling and optimization techniques for enhancing the performance of suboptimal human-agent teams, where the human and the agent have asymmetric capabilities and act suboptimally due to incomplete environmental knowledge. We adopt an online Bayesian approach that enables a robot to infer people's willingness to comply with its assistance in a sequential decision-making game. Our user studies show that user preferences and team performance indeed vary with robot intervention styles, and our approach for mixed-initiative collaborations enhances objective team performance ($p<.001$) and subjective measures, such as user's trust ($p<.001$) and perceived likeability of the robot ($p<.001$).
- Abstract(参考訳): 効果的な人間エージェントチームを作るには、ロボットや他の人工知能(AI)エージェントは、人間のパートナーの能力と行動応答パターンを推論し、それに応じて適応しなければならない。
以前の作業のほとんどは、1つ以上のチームメイトがほぼ最適に行動できるという非現実的な仮定を立てています。
現実世界のコラボレーションでは、人間と自律的なエージェントは、特に各エージェントが部分的なドメイン知識しか持たない場合、最適ではない。
本研究では,人間とエージェントが非対称な能力を持ち,不完全な環境知識のために非対称に行動する,最適な人-エージェントチームの性能を向上させるための計算モデルと最適化手法を開発する。
我々は,ロボットが逐次意思決定ゲームにおいて,その支援に従おうとする人々の意思を推測できるオンラインベイズアプローチを採用する。
ユーザの好みやチームのパフォーマンスは、ロボットの介入スタイルによって明らかに異なり、混合開始型コラボレーションは、ユーザの信頼(p<.001$)やロボットの類似性(p<.001$)など、客観的なチームパフォーマンス(p<.001$)と主観的な尺度(p<.001$)を高める。
関連論文リスト
- Dreaming to Assist: Learning to Align with Human Objectives for Shared Control in High-Speed Racing [10.947581892636629]
高速なダイナミクスと戦術的な決定を含むドメインにおける効果的な人間ロボットチームのために、タイトな調整が求められます。
人間の目的や価値関数を推測できる豊かな世界モデルを組み合わせたフレームワークであるDream2Assistを提案する。
人間の行動と人間の行動とを混ぜ合わせると、人工人間単独よりも優れた結果が得られます。
論文 参考訳(メタデータ) (2024-10-14T01:00:46Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - Learning to Influence Human Behavior with Offline Reinforcement Learning [70.7884839812069]
人間の準最適性を捉える必要があるような環境での影響に焦点を当てる。
人間によるオンライン実験は安全ではない可能性があり、環境の高忠実度シミュレータを作成することは現実的ではないことが多い。
オフライン強化学習は、観察された人間・人間の行動の要素を拡張し、組み合わせることで、人間に効果的に影響を及ぼすことができることを示す。
論文 参考訳(メタデータ) (2023-03-03T23:41:55Z) - Intuitive and Efficient Human-robot Collaboration via Real-time
Approximate Bayesian Inference [4.310882094628194]
コラボレーションロボットとエンドツーエンドAIは、工場や倉庫における人間のタスクの柔軟な自動化を約束する。
人間とコボットは互いに協力します。
これらのコラボレーションが効果的で安全であるためには、ロボットは人間の意図をモデル化し、予測し、活用する必要がある。
論文 参考訳(メタデータ) (2022-05-17T23:04:44Z) - Adaptive Agent Architecture for Real-time Human-Agent Teaming [3.284216428330814]
エージェントは人間の意図を推論し、警察を円滑な調整に適応させることが重要である。
ほとんどの文献は、学習された人間のモデルを参照するエージェントを構築している。
二者協調ゲームにおける人間モデルフリー設定における適応エージェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-07T20:08:09Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Getting to Know One Another: Calibrating Intent, Capabilities and Trust
for Human-Robot Collaboration [13.895990928770459]
ロボットが直接意思を伝えることができない人間を支援するシナリオに焦点を当てる。
我々は、決定論的アプローチを採用し、この設定をモデル化するためのTICC-POMDPを提案する。
実験によって、我々のアプローチはシミュレーションと実際の被験者による研究の両方において、より良いチームパフォーマンスをもたらすことが示された。
論文 参考訳(メタデータ) (2020-08-03T08:04:15Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Is the Most Accurate AI the Best Teammate? Optimizing AI for Teamwork [54.309495231017344]
AIシステムは人間中心の方法でトレーニングされ、チームのパフォーマンスに直接最適化されるべきである、と私たちは主張する。
我々は,AIレコメンデーションを受け入れるか,あるいはタスク自体を解決するかを選択する,特定のタイプのAIチームを提案する。
実世界の高精度データセット上での線形モデルと非線形モデルによる実験は、AIが最も正確であることは、最高のチームパフォーマンスに繋がらないことを示している。
論文 参考訳(メタデータ) (2020-04-27T19:06:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。