論文の概要: Melting Pot 2.0
- arxiv url: http://arxiv.org/abs/2211.13746v5
- Date: Mon, 24 Apr 2023 13:22:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 23:19:28.952218
- Title: Melting Pot 2.0
- Title(参考訳): Pot 2.0 の融解
- Authors: John P. Agapiou, Alexander Sasha Vezhnevets, Edgar A.
Du\'e\~nez-Guzm\'an, Jayd Matyas, Yiran Mao, Peter Sunehag, Raphael K\"oster,
Udari Madhushani, Kavya Kopparapu, Ramona Comanescu, DJ Strouse, Michael B.
Johanson, Sukhdeep Singh, Julia Haas, Igor Mordatch, Dean Mobbs, Joel Z.
Leibo
- Abstract要約: Melting Potは、マルチエージェント人工知能の開発を容易にするために開発されたツールである。
新たなソーシャルパートナーへの一般化を測定する評価プロトコルを提供する。
Melting Potは、最も多様な相互依存とインセンティブの集合をカバーすることを目指している。
- 参考スコア(独自算出の注目度): 58.633827338459035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-agent artificial intelligence research promises a path to develop
intelligent technologies that are more human-like and more human-compatible
than those produced by "solipsistic" approaches, which do not consider
interactions between agents. Melting Pot is a research tool developed to
facilitate work on multi-agent artificial intelligence, and provides an
evaluation protocol that measures generalization to novel social partners in a
set of canonical test scenarios. Each scenario pairs a physical environment (a
"substrate") with a reference set of co-players (a "background population"), to
create a social situation with substantial interdependence between the
individuals involved. For instance, some scenarios were inspired by
institutional-economics-based accounts of natural resource management and
public-good-provision dilemmas. Others were inspired by considerations from
evolutionary biology, game theory, and artificial life. Melting Pot aims to
cover a maximally diverse set of interdependencies and incentives. It includes
the commonly-studied extreme cases of perfectly-competitive (zero-sum)
motivations and perfectly-cooperative (shared-reward) motivations, but does not
stop with them. As in real-life, a clear majority of scenarios in Melting Pot
have mixed incentives. They are neither purely competitive nor purely
cooperative and thus demand successful agents be able to navigate the resulting
ambiguity. Here we describe Melting Pot 2.0, which revises and expands on
Melting Pot. We also introduce support for scenarios with asymmetric roles, and
explain how to integrate them into the evaluation protocol. This report also
contains: (1) details of all substrates and scenarios; (2) a complete
description of all baseline algorithms and results. Our intention is for it to
serve as a reference for researchers using Melting Pot 2.0.
- Abstract(参考訳): マルチエージェント人工知能研究は、エージェント間の相互作用を考慮しない「ソリピシズム」アプローチによって生み出されるものよりも、人間らしく、より人間と互換性のあるインテリジェントな技術を開発することを約束する。
Melting Potは、マルチエージェント人工知能の開発を促進するために開発された研究ツールであり、一連の標準的なテストシナリオにおいて、新しいソーシャルパートナーへの一般化を測定する評価プロトコルを提供する。
それぞれのシナリオは物理的環境("サブストラテト")と共同プレイヤーのリファレンスセット("バックグラウンド人口")を組み合わせることで、関係する個人間の実質的な相互依存を持った社会的状況を作り出す。
例えば、いくつかのシナリオは、自然資源管理と公益のジレンマに関する制度的経済的な説明にインスパイアされた。
進化生物学、ゲーム理論、人工生命から着想を得た者もいた。
Melting Potは、最も多様な相互依存とインセンティブをカバーすることを目指している。
完全競争的(ゼロサム)モチベーションと完全協力的(共有的)モチベーションの、一般的に研究されている極端なケースを含んでいるが、それらでは止まらない。
現実のように、鍋を溶かすシナリオのほとんどが混合インセンティブを持っている。
純粋に競争的でも純粋に協力的でもないので、成功したエージェントは結果の曖昧さをナビゲートできる。
ここでは、Melt Pot 2.0について説明する。
また、非対称な役割を持つシナリオのサポートを導入し、それらを評価プロトコルに統合する方法を説明します。
1)全ての基質とシナリオの詳細、(2)全てのベースラインアルゴリズムと結果の完全な記述を含む。
私たちの意図は、Melt Pot 2.0を使った研究者の参考になることです。
関連論文リスト
- Factorised Active Inference for Strategic Multi-Agent Interactions [1.9389881806157316]
この目的に2つの補完的アプローチを組み込むことができる。
アクティブ推論フレームワーク(AIF)は、エージェントが環境内の信念や行動に適応するために生成モデルをどのように利用するかを記述する。
ゲーム理論は、潜在的に競合する目的を持つエージェント間の戦略的相互作用を定式化する。
本稿では,各エージェントが他のエージェントの内部状態に対する明示的かつ個別的な信念を維持し,それらを共同で戦略的計画に利用する生成モデルの因子化を提案する。
論文 参考訳(メタデータ) (2024-11-11T21:04:43Z) - AgentSense: Benchmarking Social Intelligence of Language Agents through Interactive Scenarios [38.878966229688054]
本稿では,対話型シナリオを通して言語エージェントのソーシャルインテリジェンスをベンチマークするAgensSenseを紹介する。
ドラマティック理論に基づいて、エージェントセンスは、広範なスクリプトから構築された1,225の多様な社会的シナリオを作成するためにボトムアップアプローチを採用している。
我々はERG理論を用いて目標を分析し、包括的な実験を行う。
以上の結果から,LPMは複雑な社会シナリオ,特に高レベルの成長ニーズにおいて,目標達成に苦慮していることが明らかとなった。
論文 参考訳(メタデータ) (2024-10-25T07:04:16Z) - Hypothetical Minds: Scaffolding Theory of Mind for Multi-Agent Tasks with Large Language Models [4.9108308035618515]
マルチエージェント強化学習(MARL)法はマルチエージェントシステムの非定常性に対処する。
ここでは、大きな言語モデル(LLM)を活用して、これらの課題に対処できる自律エージェントを作成します。
私たちのエージェントである仮説的マインドスは、認知にインスパイアされたアーキテクチャで構成されており、知覚、記憶、階層的な2段階の抽象化計画のためのモジュラーコンポーネントを備えています。
論文 参考訳(メタデータ) (2024-07-09T17:57:15Z) - AntEval: Evaluation of Social Interaction Competencies in LLM-Driven
Agents [65.16893197330589]
大規模言語モデル(LLM)は、幅広いシナリオで人間の振る舞いを再現する能力を示した。
しかし、複雑なマルチ文字のソーシャルインタラクションを扱う能力については、まだ完全には研究されていない。
本稿では,新しいインタラクションフレームワークと評価手法を含むマルチエージェントインタラクション評価フレームワーク(AntEval)を紹介する。
論文 参考訳(メタデータ) (2024-01-12T11:18:00Z) - MAgIC: Investigation of Large Language Model Powered Multi-Agent in
Cognition, Adaptability, Rationality and Collaboration [102.41118020705876]
大規模言語モデル(LLM)は自然言語処理の分野で大きな進歩を遂げている。
アプリケーションがマルチエージェント環境に拡張されるにつれ、包括的な評価フレームワークの必要性が高まっている。
この研究は、マルチエージェント設定内でLLMを評価するために特別に設計された新しいベンチマークフレームワークを導入している。
論文 参考訳(メタデータ) (2023-11-14T21:46:27Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Theory of Mind as Intrinsic Motivation for Multi-Agent Reinforcement
Learning [5.314466196448188]
本稿では,深いネットワークによってモデル化された政策の中で意味論的・人間解釈的信念を基礎づける手法を提案する。
各エージェントが他のエージェントの信念を予測する能力は,マルチエージェント強化学習の本質的な報奨信号として利用できることを提案する。
論文 参考訳(メタデータ) (2023-07-03T17:07:18Z) - ToM2C: Target-oriented Multi-agent Communication and Cooperation with
Theory of Mind [18.85252946546942]
心の理論(Theory of Mind、ToM)は、効果的なコミュニケーションと協力が可能な社会的に知的なエージェントを構築する。
このアイデアは、協調ナビゲーションとマルチセンサーターゲットカバレッジという、2つの典型的な目標指向型マルチエージェントタスクで実証される。
論文 参考訳(メタデータ) (2021-10-15T18:29:55Z) - Collective eXplainable AI: Explaining Cooperative Strategies and Agent
Contribution in Multiagent Reinforcement Learning with Shapley Values [68.8204255655161]
本研究は,シェープリー値を用いたマルチエージェントRLにおける協調戦略を説明するための新しい手法を提案する。
結果は、差別的でない意思決定、倫理的かつ責任あるAI由来の意思決定、公正な制約の下での政策決定に影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2021-10-04T10:28:57Z) - Scalable Evaluation of Multi-Agent Reinforcement Learning with Melting
Pot [71.28884625011987]
Melting PotはMARL評価スイートで、強化学習を使用して、新しいテストシナリオを作成するのに必要な人的労力を削減する。
幅広い研究トピックをカバーする80以上のユニークなテストシナリオを作成しました。
これらのテストシナリオを標準的なMARLトレーニングアルゴリズムに適用し、Melting Potがトレーニングのパフォーマンスだけでは明らかでない弱点をいかに明らかにするかを実証する。
論文 参考訳(メタデータ) (2021-07-14T17:22:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。