論文の概要: Local Minima Drive Communications in Cooperative Interaction
- arxiv url: http://arxiv.org/abs/2307.09364v1
- Date: Tue, 18 Jul 2023 15:48:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 13:53:55.019418
- Title: Local Minima Drive Communications in Cooperative Interaction
- Title(参考訳): 協調インタラクションにおける局所的ミニマドライブ通信
- Authors: Roger K. Moore
- Abstract要約: 協調作業においては、通信の機能は局所ミニマを含む複雑な探索空間における行動を調整することであると仮定される。
これらの原理は、2つの独立した1次元エージェントが協力しなくてはならないコンピュータベースのシミュレーション環境で検証されている。
- 参考スコア(独自算出の注目度): 6.709659274527638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An important open question in human-robot interaction (HRI) is precisely when
an agent should decide to communicate, particularly in a cooperative task.
Perceptual Control Theory (PCT) tells us that agents are able to cooperate on a
joint task simply by sharing the same 'intention', thereby distributing the
effort required to complete the task among the agents. This is even true for
agents that do not possess the same abilities, so long as the goal is
observable, the combined actions are sufficient to complete the task, and there
is no local minimum in the search space. If these conditions hold, then a
cooperative task can be accomplished without any communication between the
contributing agents. However, for tasks that do contain local minima, the
global solution can only be reached if at least one of the agents adapts its
intention at the appropriate moments, and this can only be achieved by
appropriately timed communication. In other words, it is hypothesised that in
cooperative tasks, the function of communication is to coordinate actions in a
complex search space that contains local minima. These principles have been
verified in a computer-based simulation environment in which two independent
one-dimensional agents are obliged to cooperate in order to solve a
two-dimensional path-finding task.
- Abstract(参考訳): 人間-ロボット相互作用(HRI)における重要なオープンな疑問は、エージェントがいつコミュニケーションをするか、特に協調作業において正確に決定することである。
知覚制御理論(pct)では、エージェントは単に同じ「意図」を共有するだけで共同タスクで協力することができ、エージェント間でタスクを完了させるのに必要な労力を分散することができる。
これは同じ能力を持たないエージェントに対してさえ当てはまり、目標が観測可能である限り、組み合わせたアクションはタスクを完了するのに十分であり、検索空間に局所的な最小値がない。
これらの条件が成立すれば、協力的なタスクは、貢献するエージェント間のコミュニケーションなしに達成できる。
しかし、局所的なミニマを含むタスクの場合、グローバルソリューションは、少なくとも1つのエージェントが適切なタイミングでその意図に適応した場合にのみ到達でき、適切なタイミングのコミュニケーションによってのみ達成できる。
言い換えれば、協調作業においては、通信の機能は局所ミニマを含む複素探索空間における行動を調整することであると仮定される。
これらの原理は、2つの独立した1次元エージェントが2次元パスフィニングタスクを解決するために協力しなければならないコンピュータベースのシミュレーション環境で検証されている。
関連論文リスト
- CaPo: Cooperative Plan Optimization for Efficient Embodied Multi-Agent Cooperation [98.11670473661587]
CaPoは,1)メタプラン生成,2)プログレッシブなメタプランと実行の2つのフェーズで協調効率を向上する。
3Dworld Multi-Agent TransportとCommunicative Watch-And-Helpタスクの実験結果は、CaPoが最先端技術と比較してタスク完了率と効率をはるかに高めることを示した。
論文 参考訳(メタデータ) (2024-11-07T13:08:04Z) - A Survey on Complex Tasks for Goal-Directed Interactive Agents [60.53915548970061]
この調査は、目標指向の対話エージェントを評価するための、関連するタスクと環境をコンパイルする。
関連リソースの最新のコンパイルは、プロジェクトのWebサイトにある。
論文 参考訳(メタデータ) (2024-09-27T08:17:53Z) - Mutual Theory of Mind in Human-AI Collaboration: An Empirical Study with LLM-driven AI Agents in a Real-time Shared Workspace Task [56.92961847155029]
心の理論(ToM)は、他人を理解する上で重要な能力として、人間の協調とコミュニケーションに大きな影響を及ぼす。
Mutual Theory of Mind (MToM) は、ToM能力を持つAIエージェントが人間と協力するときに発生する。
エージェントのToM能力はチームのパフォーマンスに大きな影響を与えず,エージェントの人間的理解を高めていることがわかった。
論文 参考訳(メタデータ) (2024-09-13T13:19:48Z) - Towards Collaborative Intelligence: Propagating Intentions and Reasoning for Multi-Agent Coordination with Large Language Models [41.95288786980204]
現在のエージェントフレームワークは、シングルエージェント実行への依存に悩まされ、モジュール間通信が堅牢でないことが多い。
協調的なMARLにおける協調行動を可能にするための協調エージェントとして,大規模言語モデルを訓練するためのフレームワークを提案する。
伝搬ネットワークは、放送意図をチームメイト固有のコミュニケーションメッセージに変換し、指定されたチームメイトと関連する目標を共有する。
論文 参考訳(メタデータ) (2024-07-17T13:14:00Z) - Decentralized and Lifelong-Adaptive Multi-Agent Collaborative Learning [57.652899266553035]
分散型および生涯適応型多エージェント協調学習は、中央サーバを使わずに複数のエージェント間のコラボレーションを強化することを目的としている。
動的協調グラフを用いた分散マルチエージェント生涯協調学習アルゴリズムであるDeLAMAを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:21:11Z) - MetaAgents: Simulating Interactions of Human Behaviors for LLM-based
Task-oriented Coordination via Collaborative Generative Agents [27.911816995891726]
我々は,一貫した行動パターンと課題解決能力を備えたLLMベースのエージェントを,協調的生成エージェントとして導入する。
本研究では,人間のような推論能力と専門的スキルを備えた協調生成エージェントを実現する新しい枠組みを提案する。
我々の研究は、タスク指向の社会シミュレーションにおける大規模言語モデルの役割と進化に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-10-10T10:17:58Z) - Establishing Shared Query Understanding in an Open Multi-Agent System [1.2031796234206138]
本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
論文 参考訳(メタデータ) (2023-05-16T11:07:05Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - UneVEn: Universal Value Exploration for Multi-Agent Reinforcement
Learning [53.73686229912562]
我々はUniversal Value Exploration(UneVEn)と呼ばれる新しいMARLアプローチを提案する。
UneVEnは、一連の関連するタスクと、普遍的な後継機能の線形分解を同時に学習する。
一連の探索ゲームにおける実証的な結果、エージェント間の重要な調整を必要とする協調捕食・捕食作業への挑戦、およびStarCraft IIのマイクロマネジメントベンチマークは、UneVEnが他の最先端のMARLメソッドが失敗するタスクを解決できることを示している。
論文 参考訳(メタデータ) (2020-10-06T19:08:47Z) - A Cordial Sync: Going Beyond Marginal Policies for Multi-Agent Embodied
Tasks [111.34055449929487]
エージェントが協力して家具をリビングルームに移動させるという,新しいタスクFurnMoveを紹介した。
既存のタスクとは異なり、FurnMoveはエージェントが各タイミングで調整する必要がある。
既存の分散化されたアクションサンプリング手順は、表現力のある共同アクションポリシーを許さない。
SynC-policiesとCORDIALを用いて、我々のエージェントはFurnMoveで58%の完成率を達成する。
論文 参考訳(メタデータ) (2020-07-09T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。