論文の概要: Evolving Strategies for Competitive Multi-Agent Search
- arxiv url: http://arxiv.org/abs/2306.10640v1
- Date: Sun, 18 Jun 2023 21:35:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 19:37:14.156813
- Title: Evolving Strategies for Competitive Multi-Agent Search
- Title(参考訳): 競合型マルチエージェント探索のための進化戦略
- Authors: Erkin Bahceci, Riitta Katila, and Risto Miikkulainen
- Abstract要約: 本稿では,競争的マルチエージェントサーチ(CMAS)として人間の創造的問題解決を最初に定式化する。
主な仮説は、進化的計算を用いてCMASの効果的な戦略を発見することである。
異なる競争環境ごとに異なる専門戦略が進化し、環境全体にわたってうまく機能する一般的な戦略も進化する。
- 参考スコア(独自算出の注目度): 12.699427247517031
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While evolutionary computation is well suited for automatic discovery in
engineering, it can also be used to gain insight into how humans and
organizations could perform more effectively. Using a real-world problem of
innovation search in organizations as the motivating example, this article
first formalizes human creative problem solving as competitive multiagent
search (CMAS). CMAS is different from existing single-agent and team search
problems in that the agents interact through knowledge of other agents'
searches and through the dynamic changes in the search landscape that result
from these searches. The main hypothesis is that evolutionary computation can
be used to discover effective strategies for CMAS; this hypothesis is verified
in a series of experiments on the NK model, i.e. partially correlated and
tunably rugged fitness landscapes. Different specialized strategies are evolved
for each different competitive environment, and also general strategies that
perform well across environments. These strategies are more effective and more
complex than hand-designed strategies and a strategy based on traditional tree
search. Using a novel spherical visualization of such landscapes, insight is
gained about how successful strategies work, e.g. by tracking positive changes
in the landscape. The article thus provides a possible framework for studying
various human creative activities as competitive multi-agent search in the
future.
- Abstract(参考訳): 進化的計算は工学における自動発見に適しているが、人間や組織がより効果的に機能する方法についての洞察を得るためにも利用できる。
本稿では、組織におけるイノベーションサーチの現実的な課題をモチベーションの例として用い、まず、人間の創造的問題解決を競合マルチエージェントサーチ(CMAS)として定式化する。
CMASは既存のシングルエージェントやチーム検索と異なり、エージェントは他のエージェントの検索の知識と、これらの検索から生じる検索環境の動的変化を通して対話する。
主な仮説は、進化的計算がCMASの効果的な戦略を発見するために用いられることであり、この仮説はNKモデルに関する一連の実験、すなわち部分的に相関し、調整可能な頑丈なフィットネスランドスケープで検証される。
異なる競争環境ごとに異なる専門戦略が進化し、環境全体にわたってうまく機能する一般的な戦略も進化する。
これらの戦略は、手作りの戦略や伝統的な木探索に基づく戦略よりも効率的で複雑である。
このような風景を新しい球面で可視化することで、例えば、風景のポジティブな変化を追跡するなど、戦略がいかにうまく機能するかについての洞察が得られる。
本稿は,将来,競争力のあるマルチエージェント検索として,様々な創造活動を研究するためのフレームワークを提供する。
関連論文リスト
- Active Legibility in Multiagent Reinforcement Learning [3.7828554251478734]
正当性指向のフレームワークは、エージェントが他人の振る舞いを最適化するのを助けるために、妥当なアクションを実行することを可能にする。
実験の結果、新しいフレームワークは、複数のマルチエージェント強化学習アルゴリズムと比較して、より効率的で、トレーニング時間が少ないことが示されている。
論文 参考訳(メタデータ) (2024-10-28T12:15:49Z) - Efficient Adaptation in Mixed-Motive Environments via Hierarchical Opponent Modeling and Planning [51.52387511006586]
本稿では,HOP(Hierarchical Opponent Modeling and Planning)を提案する。
HOPは階層的に2つのモジュールから構成される: 相手の目標を推論し、対応する目標条件のポリシーを学ぶ、反対モデリングモジュール。
HOPは、さまざまな未確認エージェントと相互作用する際、優れた少数ショット適応能力を示し、セルフプレイのシナリオで優れている。
論文 参考訳(メタデータ) (2024-06-12T08:48:06Z) - CompetEvo: Towards Morphological Evolution from Competition [60.69068909395984]
エージェントの設計と戦術を共進化させる競争進化(CompetEvo)を提案する。
その結果,エージェントがより適切な設計と戦略を進化させることができることがわかった。
論文 参考訳(メタデータ) (2024-05-28T15:53:02Z) - Mathematics of multi-agent learning systems at the interface of game
theory and artificial intelligence [0.8049333067399385]
進化ゲーム理論と人工知能は、一見すると異なるように見える2つの分野であるが、それらは顕著なつながりと交差を持っている。
前者は集団における行動(または戦略)の進化に焦点を当て、個人が他人と対話し、模倣(または社会学習)に基づいて戦略を更新する。
一方後者は、機械学習アルゴリズムと(ディープ)ニューラルネットワークに重点を置いている。
論文 参考訳(メタデータ) (2024-03-09T17:36:54Z) - Fast Peer Adaptation with Context-aware Exploration [63.08444527039578]
マルチエージェントゲームにおける学習エージェントに対するピア識別報酬を提案する。
この報酬は、効果的な探索と迅速な適応のための文脈認識ポリシーを学ぶためのエージェントのモチベーションとなる。
我々は,競争力のある(クーンポーカー),協力的(PO-Overcooked),あるいは混合的(Predator-Prey-W)な(Pedator-Prey-W)ゲームを含む多種多様なテストベッドについて評価を行った。
論文 参考訳(メタデータ) (2024-02-04T13:02:27Z) - ALYMPICS: LLM Agents Meet Game Theory -- Exploring Strategic
Decision-Making with AI Agents [77.34720446306419]
Alympicsは、ゲーム理論の研究にLarge Language Model (LLM)エージェントを利用する、体系的なシミュレーションフレームワークである。
Alympicsは、複雑なゲーム理論の問題を研究するための汎用的なプラットフォームを作成する。
論文 参考訳(メタデータ) (2023-11-06T16:03:46Z) - Optimal foraging strategies can be learned [0.0]
我々は、強化学習フレームワークによる最適な採餌戦略を探究する。
まず, 強化学習モデルにおける報酬の最大化が, 捕食効率の最適化と等価であることを理論的に証明する。
次に,非破壊探索のパラダイムモデルを用いて,L'evy walk などのよく知られた戦略の効率を向上する捕食戦略を学ぶ数値実験を行った。
論文 参考訳(メタデータ) (2023-03-10T16:40:12Z) - Pick Your Battles: Interaction Graphs as Population-Level Objectives for
Strategic Diversity [49.68758494467258]
我々は、集団内の個人がどのように相互作用するかを慎重に構造化することで、多様なエージェントの集団を構築する方法について研究する。
我々のアプローチは,エージェント間の情報の流れを制御するインタラクショングラフに基づいている。
マルチエージェント・トレーニングにおける多様性の重要性を証明し,様々な相互作用グラフを適用したゲームにおけるトレーニング・トラジェクトリ,多様性,パフォーマンスに与える影響を解析する。
論文 参考訳(メタデータ) (2021-10-08T11:29:52Z) - Portfolio Search and Optimization for General Strategy Game-Playing [58.896302717975445]
ローリングホライズン進化アルゴリズムに基づく最適化とアクション選択のための新しいアルゴリズムを提案する。
エージェントのパラメータとポートフォリオセットの最適化について,N-tuple Bandit Evolutionary Algorithmを用いて検討する。
エージェントの性能分析により,提案手法はすべてのゲームモードによく一般化し,他のポートフォリオ手法よりも優れることが示された。
論文 参考訳(メタデータ) (2021-04-21T09:28:28Z) - Natural Emergence of Heterogeneous Strategies in Artificially
Intelligent Competitive Teams [0.0]
我々はFortAttackと呼ばれる競合するマルチエージェント環境を開発し、2つのチームが互いに競合する。
このような振る舞いがチームの成功に繋がる場合、同種エージェント間の異種行動の自然発生を観察する。
我々は、進化した反対戦略を利用して、友好的なエージェントのための単一のポリシーを訓練するアンサンブルトレーニングを提案する。
論文 参考訳(メタデータ) (2020-07-06T22:35:56Z) - Adaptive strategy in differential evolution via explicit exploitation
and exploration controls [0.0]
本稿では,明示的適応スキーム (Ea scheme) という新しい戦略適応手法を提案する。
Eaスキームは複数の戦略を分離し、それらをオンデマンドで採用する。
ベンチマーク関数に関する実験的研究は、Eaスキームの有効性を示す。
論文 参考訳(メタデータ) (2020-02-03T09:12:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。