論文の概要: Establishing Shared Query Understanding in an Open Multi-Agent System
- arxiv url: http://arxiv.org/abs/2305.09349v1
- Date: Tue, 16 May 2023 11:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 15:17:05.139345
- Title: Establishing Shared Query Understanding in an Open Multi-Agent System
- Title(参考訳): オープンマルチエージェントシステムにおける共有クエリ理解の構築
- Authors: Nikolaos Kondylidis, Ilaria Tiddi and Annette ten Teije
- Abstract要約: 本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおけるタスク指向コミュニケーションの効率向上に重点を置いている。
- 参考スコア(独自算出の注目度): 1.2031796234206138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a method that allows to develop shared understanding between two
agents for the purpose of performing a task that requires cooperation. Our
method focuses on efficiently establishing successful task-oriented
communication in an open multi-agent system, where the agents do not know
anything about each other and can only communicate via grounded interaction.
The method aims to assist researchers that work on human-machine interaction or
scenarios that require a human-in-the-loop, by defining interaction
restrictions and efficiency metrics. To that end, we point out the challenges
and limitations of such a (diverse) setup, while also restrictions and
requirements which aim to ensure that high task performance truthfully reflects
the extent to which the agents correctly understand each other. Furthermore, we
demonstrate a use-case where our method can be applied for the task of
cooperative query answering. We design the experiments by modifying an
established ontology alignment benchmark. In this example, the agents want to
query each other, while representing different databases, defined in their own
ontologies that contain different and incomplete knowledge. Grounded
interaction here has the form of examples that consists of common instances,
for which the agents are expected to have similar knowledge. Our experiments
demonstrate successful communication establishment under the required
restrictions, and compare different agent policies that aim to solve the task
in an efficient manner.
- Abstract(参考訳): 本研究では,協調を要するタスクを実行するために,2つのエージェント間の共通理解を開発する手法を提案する。
本手法は,オープンマルチエージェントシステムにおいて,エージェントが相互に何の知識も持たず,接地的相互作用によってのみ通信可能なタスク指向コミュニケーションを効率的に確立することに焦点を当てる。
この方法は、人間と機械の相互作用や、ループ内の人間を必要とするシナリオに取り組む研究者を支援することを目的としている。
そのために、このような(多種多様な)セットアップの課題と限界を指摘するとともに、高いタスクパフォーマンスがエージェント同士が正しく理解している範囲を真に反映することを保証するための制約と要件も指摘する。
さらに,協調的な問合せ応答のタスクに対して,本手法を適用可能なユースケースを示す。
我々は、確立したオントロジーアライメントベンチマークを変更することで実験を設計する。
この例では、エージェントは互いに問い合わせをしたいが、異なるデータベースを表現し、異なる知識と不完全な知識を含む独自のオントロジーで定義する。
ここでの接地相互作用は、エージェントが同様の知識を持つと予想される一般的な例からなる例の形式を持つ。
本実験は,要求された制約下でのコミュニケーションの確立を成功させ,その課題を効率的に解決するためのエージェントポリシーを比較した。
関連論文リスト
- Communication Learning in Multi-Agent Systems from Graph Modeling Perspective [62.13508281188895]
本稿では,エージェント間の通信アーキテクチャを学習可能なグラフとして概念化する手法を提案する。
本稿では,各エージェントに対して時間的ゲーティング機構を導入し,ある時間に共有情報を受信するかどうかの動的決定を可能にする。
論文 参考訳(メタデータ) (2024-11-01T05:56:51Z) - A Survey on Complex Tasks for Goal-Directed Interactive Agents [60.53915548970061]
この調査は、目標指向の対話エージェントを評価するための、関連するタスクと環境をコンパイルする。
関連リソースの最新のコンパイルは、プロジェクトのWebサイトにある。
論文 参考訳(メタデータ) (2024-09-27T08:17:53Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - Multi-Agent Consensus Seeking via Large Language Models [6.922356864800498]
大規模言語モデル(LLM)によって駆動されるマルチエージェントシステムは、複雑なタスクを協調的に解決する有望な能力を示している。
この研究は、マルチエージェントコラボレーションにおける根本的な問題であるコンセンサス探索について考察する。
論文 参考訳(メタデータ) (2023-10-31T03:37:11Z) - Cooperation, Competition, and Maliciousness: LLM-Stakeholders Interactive Negotiation [52.930183136111864]
我々は,大言語モデル(LLM)を評価するためにスコーラブルネゴシエーション(scorable negotiations)を提案する。
合意に達するには、エージェントは強力な算術、推論、探索、計画能力を持つ必要がある。
我々は、新しいゲームを作成し、進化するベンチマークを持つことの難しさを増大させる手順を提供する。
論文 参考訳(メタデータ) (2023-09-29T13:33:06Z) - Local Minima Drive Communications in Cooperative Interaction [6.709659274527638]
協調作業においては、通信の機能は局所ミニマを含む複雑な探索空間における行動を調整することであると仮定される。
これらの原理は、2つの独立した1次元エージェントが協力しなくてはならないコンピュータベースのシミュレーション環境で検証されている。
論文 参考訳(メタデータ) (2023-07-18T15:48:37Z) - CAMEL: Communicative Agents for "Mind" Exploration of Large Language
Model Society [58.04479313658851]
本稿では,コミュニケーションエージェント間の自律的協調を支援するスケーラブルな手法の構築の可能性について検討する。
本稿では,ロールプレイングという新しいコミュニケーションエージェントフレームワークを提案する。
コントリビューションには、新しいコミュニケーティブエージェントフレームワークの導入、マルチエージェントシステムの協調行動や能力を研究するためのスケーラブルなアプローチの提供などが含まれます。
論文 参考訳(メタデータ) (2023-03-31T01:09:00Z) - Towards Collaborative Question Answering: A Preliminary Study [63.91687114660126]
我々は、モデレーターによって調整された複数の専門家エージェントが協力して、単一のエージェントだけでは答えられない質問に答える新しいQAタスクCollabQAを提案する。
専門家に分散可能な,大規模な知識グラフの合成データセットを作成する。
専門家が完璧で均一でない限り,コラボレーション構造を導入することなく,この問題が解決可能であることを示す。
論文 参考訳(メタデータ) (2022-01-24T14:27:00Z) - Domain-Robust Visual Imitation Learning with Mutual Information
Constraints [0.0]
Disentangling Generative Adversarial Imitation Learning (DisentanGAIL)と呼ばれる新しいアルゴリズムを導入する。
本アルゴリズムは,タスクを実行する専門家の高次元観察から自律エージェントを直接学習することを可能にする。
論文 参考訳(メタデータ) (2021-03-08T21:18:58Z) - Modeling the Interaction between Agents in Cooperative Multi-Agent
Reinforcement Learning [2.9360071145551068]
対話型アクター・クリティック(IAC)と呼ばれる新しい協調型MARLアルゴリズムを提案する。
IACは政策と価値関数の観点からエージェントの相互作用をモデル化する。
連続制御タスクに値分解手法を拡張し、古典的な制御やマルチエージェント粒子環境を含むベンチマークタスク上でIACを評価する。
論文 参考訳(メタデータ) (2021-02-10T01:58:28Z) - Counterfactual Multi-Agent Reinforcement Learning with Graph Convolution
Communication [5.5438676149999075]
本稿では,エージェントが協調してシステムの有用性を最大化する,完全協調型マルチエージェントシステムについて考察する。
マルチエージェントシステムには,エージェント間の相互作用を伝達し,理解する能力が必要である。
エージェント間の通信を可能にするアーキテクチャを開発し,各エージェントに対するシステム報酬を調整する。
論文 参考訳(メタデータ) (2020-04-01T14:36:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。