論文の概要: Adapting Behaviour Based On Trust In Human-Agent Ad Hoc Teamwork
- arxiv url: http://arxiv.org/abs/2210.06915v1
- Date: Thu, 13 Oct 2022 11:28:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 17:09:32.096633
- Title: Adapting Behaviour Based On Trust In Human-Agent Ad Hoc Teamwork
- Title(参考訳): ヒューマンエージェント・アドホックチームワークにおける信頼に基づく適応行動
- Authors: Ana Carrasco
- Abstract要約: この研究は、ヒューマンエージェントチームによるアドホックなチームワークシナリオへの信頼を取り入れたフレームワークを提案する。
我々は、信頼レベルに基づいて異なる設定を定義するために、実験で人間の参加者からデータを収集します。
このフレームワークを現実のシナリオで検証し、この適応可能な振る舞いが信頼にどのように影響するかを分析する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This work proposes a framework that incorporates trust in an ad hoc teamwork
scenario with human-agent teams, where an agent must collaborate with a human
to perform a task. During the task, the agent must infer, through interactions
and observations, how much the human trusts it and adapt its behaviour to
maximize the team's performance. To achieve this, we propose collecting data
from human participants in experiments to define different settings (based on
trust levels) and learning optimal policies for each of them. Then, we create a
module to infer the current setting (depending on the amount of trust).
Finally, we validate this framework in a real-world scenario and analyse how
this adaptable behaviour affects trust.
- Abstract(参考訳): この研究は、エージェントがタスクを実行するために人間と協力しなくてはならない、ヒューマンエージェントチームとのアドホックなチームワークシナリオへの信頼を組み込むフレームワークを提案する。
タスクの間、エージェントは、対話と観察を通じて、人間の信頼度を推測し、チームのパフォーマンスを最大化するためにその振る舞いを適応させなければなりません。
そこで本研究では,異なる設定(信頼レベルに基づく)を定義し,それぞれに最適なポリシーを学習するための実験において,人からのデータ収集を提案する。
次に、現在の設定(信頼の量に依存する)を推測するモジュールを作成します。
最後に、このフレームワークを現実のシナリオで検証し、この適応可能な振る舞いが信頼にどのように影響するかを分析する。
関連論文リスト
- Learning responsibility allocations for multi-agent interactions: A differentiable optimization approach with control barrier functions [12.074590482085831]
責任レンズを介して安全なマルチエージェントインタラクションを規定する要因を定式化する。
本稿では,制御障壁関数と微分可能最適化に基づくデータ駆動モデリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-09T20:20:41Z) - AgentCF: Collaborative Learning with Autonomous Language Agents for
Recommender Systems [112.76941157194544]
本稿では,エージェントベースの協調フィルタリングにより,レコメンデータシステムにおけるユーザとイテムのインタラクションをシミュレートするエージェントCFを提案する。
我々は、ユーザだけでなく、アイテムをエージェントとして、創造的に考慮し、両方のエージェントを同時に最適化する協調学習アプローチを開発します。
全体として、最適化されたエージェントは、ユーザ・イテム、ユーザ・ユーザ・ユーザ、アイテム・イテム、集合的インタラクションなど、フレームワーク内での多様なインタラクションの振る舞いを示す。
論文 参考訳(メタデータ) (2023-10-13T16:37:14Z) - ProAgent: Building Proactive Cooperative Agents with Large Language
Models [89.53040828210945]
ProAgentは、大規模な言語モデルを利用してプロアクティブエージェントを生成する新しいフレームワークである。
ProAgentは現状を分析し、チームメイトの意図を観察から推測することができる。
ProAgentは高度なモジュール化と解釈可能性を示し、様々な調整シナリオに容易に統合できる。
論文 参考訳(メタデータ) (2023-08-22T10:36:56Z) - AgentVerse: Facilitating Multi-Agent Collaboration and Exploring
Emergent Behaviors [93.38830440346783]
本稿では,その構成をより高機能なシステムとして協調的に調整できるマルチエージェントフレームワークを提案する。
実験により,フレームワークが単一エージェントより優れたマルチエージェントグループを効果的に展開できることが実証された。
これらの振舞いの観点から、我々は、ポジティブなものを活用し、ネガティブなものを緩和し、マルチエージェントグループの協調可能性を改善するためのいくつかの戦略について議論する。
論文 参考訳(メタデータ) (2023-08-21T16:47:11Z) - Converging Measures and an Emergent Model: A Meta-Analysis of
Human-Automation Trust Questionnaires [0.6853165736531939]
我々は、最も頻繁に引用され、最も有効な人間自動および人間ロボット信頼のアンケートを同定する。
本研究では,人間自動信頼の収束モデルを示す。
論文 参考訳(メタデータ) (2023-03-24T04:42:49Z) - Detecting and Optimising Team Interactions in Software Development [58.720142291102135]
本稿では,ソフトウェア開発チームの機能的相互作用構造を検出するためのデータ駆動型手法を提案する。
このアプローチでは、チームメンバのアクティビティレベルの違いを考慮し、ブロック制約設定モデルを使用します。
我々のアプローチは、チームが合成されたベンチマークシナリオと機能的な相互作用構造を比較するのにどのように役立つかを示します。
論文 参考訳(メタデータ) (2023-02-28T14:53:29Z) - Explaining Reinforcement Learning Policies through Counterfactual
Trajectories [147.7246109100945]
人間の開発者は、RLエージェントがテスト時にうまく機能することを検証しなければならない。
本手法では, エージェントの挙動をより広い軌道分布で示すことにより, エージェントの挙動を分布変化下で表現する。
本研究では,2つのエージェント検証タスクのうちの1つに対して,ベースライン法よりも優れたスコアを得られることを示す。
論文 参考訳(メタデータ) (2022-01-29T00:52:37Z) - Behaviour-conditioned policies for cooperative reinforcement learning
tasks [41.74498230885008]
現実世界の様々なタスクにおいて、エージェントは未知のパートナーエージェントタイプと協力する必要がある。
深層強化学習モデルは、必要な機能を提供するためにトレーニングすることができるが、サンプルの非効率性と遅い学習に苦しむことが知られている。
本研究では,行動パターンの異なるエージェントの集団を合成的に生成する手法を提案する。
また、生成されたデータを効率的に利用し、メタ学習能力を得ることができるエージェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-10-04T09:16:41Z) - Adaptive Agent Architecture for Real-time Human-Agent Teaming [3.284216428330814]
エージェントは人間の意図を推論し、警察を円滑な調整に適応させることが重要である。
ほとんどの文献は、学習された人間のモデルを参照するエージェントを構築している。
二者協調ゲームにおける人間モデルフリー設定における適応エージェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-07T20:08:09Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。