論文の概要: Efficiently Evolving Swarm Behaviors Using Grammatical Evolution With
PPA-style Behavior Trees
- arxiv url: http://arxiv.org/abs/2203.15776v1
- Date: Tue, 29 Mar 2022 17:36:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 09:16:10.880087
- Title: Efficiently Evolving Swarm Behaviors Using Grammatical Evolution With
PPA-style Behavior Trees
- Title(参考訳): PPA型行動木を用いた文法進化を用いた群集行動の効率的な進化
- Authors: Aadesh Neupane, Michael A. Goodrich
- Abstract要約: 人工エージェントによるSwarmの動作の進化は、計算コストが高く、困難である。
本稿では, PPA(Postcondition-Precondition-Action)標準行動木(BT)と文法的進化(BT)を体系的に組み合わせることで, 群集の挙動を進化させる。
進化するアルゴリズムは、前回の作業よりも8倍改善された、飼料と巣のメンテナンスタスクの学習試行の75%に成功しました。
- 参考スコア(独自算出の注目度): 4.111899441919164
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Evolving swarm behaviors with artificial agents is computationally expensive
and challenging. Because reward structures are often sparse in swarm problems,
only a few simulations among hundreds evolve successful swarm behaviors.
Additionally, swarm evolutionary algorithms typically rely on ad hoc fitness
structures, and novel fitness functions need to be designed for each swarm
task. This paper evolves swarm behaviors by systematically combining
Postcondition-Precondition-Action (PPA) canonical Behavior Trees (BT) with a
Grammatical Evolution. The PPA structure replaces ad hoc reward structures with
systematic postcondition checks, which allows a common grammar to learn
solutions to different tasks using only environmental cues and BT feedback. The
static performance of learned behaviors is poor because no agent learns all
necessary subtasks, but performance while evolving is excellent because agents
can quickly change behaviors in new contexts. The evolving algorithm succeeded
in 75\% of learning trials for both foraging and nest maintenance tasks, an
eight-fold improvement over prior work.
- Abstract(参考訳): 人工エージェントによる群行動の進化は計算量的に高価で困難である。
報酬構造はswarm問題では不十分であることが多いため、数百のswarm動作を成功させるシミュレーションはごくわずかである。
さらに、swarm進化アルゴリズムは通常アドホックな適合構造に依存しており、新しい適合関数はswarmタスクごとに設計する必要がある。
本稿では,ポストコンディショニング・プレコンディショニング・アクション (ppa) 標準行動木 (bt) と文法的進化を体系的に組み合わせ,群行動を進化させる。
PPA構造はアドホック報酬構造を体系的な後条件チェックに置き換え、共通文法は環境手がかりとBTフィードバックのみを用いて様々なタスクの解を学習することができる。
学習行動の静的なパフォーマンスは、エージェントがすべての必要なサブタスクを学習しないため貧弱であるが、エージェントが新しいコンテキストでの振る舞いを素早く変更できるため、進化中のパフォーマンスは優れている。
進化するアルゴリズムは、飼料と巣のメンテナンスタスクの両方で75\%の学習試験に成功し、以前の作業よりも8倍改善した。
関連論文リスト
- DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - Emergent communication enhances foraging behaviour in evolved swarms
controlled by Spiking Neural Networks [0.0]
アリのような社会昆虫はフェロモンを介して通信し、活動の協調と複雑なタスクを群れとして解決する。
進化的アルゴリズムを用いて、スパイキングニューラルネットワーク(SNN)を最適化し、人工脳として機能し、各エージェントの動作を制御する。
フェロモンによるコミュニケーションは,フェロモンによるコミュニケーションが出現しないコロニーに比べて,アリの行動が良好であることを示す。
論文 参考訳(メタデータ) (2022-12-16T13:57:09Z) - Editing Models with Task Arithmetic [69.97273155842966]
事前訓練されたモデルの振る舞いを変えることは、機械学習システムの開発において一般的なプラクティスである。
タスクを微調整した後、同じモデルの重みから事前学習したモデルの重みを減らしてタスクベクトルを構築する。
これらのタスクベクトルは、否定や加算といった算術演算によって変更・結合可能であることを示す。
論文 参考訳(メタデータ) (2022-12-08T05:50:53Z) - A Stable, Fast, and Fully Automatic Learning Algorithm for Predictive
Coding Networks [65.34977803841007]
予測符号化ネットワークは、ベイズ統計学と神経科学の両方にルーツを持つ神経科学にインスパイアされたモデルである。
シナプス重みに対する更新規則の時間的スケジュールを変更するだけで、元の規則よりもずっと効率的で安定したアルゴリズムが得られることを示す。
論文 参考訳(メタデータ) (2022-11-16T00:11:04Z) - Co-design of Embodied Neural Intelligence via Constrained Evolution [8.350757829136315]
自律移動エージェントの形状特性と移動特性を共設計する手法を提案する。
私たちの主なインスピレーションは進化であり、それが自然の幅広い多様性と適応につながった。
その結果,変化の10%に過ぎなかったとしても,進化したエージェントの全体的な性能は50%向上した。
論文 参考訳(メタデータ) (2022-05-21T22:44:12Z) - Adaptability of Improved NEAT in Variable Environments [0.0]
神経進化(NeuroEvolution of Augmenting Topologies、NEAT)は、新しい遺伝的アルゴリズム(GA)である。
本稿では, NEATの改良版を可変環境に実装することにより, この課題について検討する。
すべての組み合わせで改善されているのは、リカレント接続、自動機能選択、人口増加である。
論文 参考訳(メタデータ) (2021-10-22T15:33:51Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Tasks, stability, architecture, and compute: Training more effective
learned optimizers, and using them to train themselves [53.37905268850274]
我々は、自動正規化を実現するために、バリデーション損失などの追加機能にアクセス可能な、階層的で階層的なニューラルネットワークパラメータ化を導入した。
ほとんどの学習は単一のタスク、あるいは少数のタスクでトレーニングされています。
何千ものタスクをトレーニングし、桁違いに計算量を増やし、その結果、目に見えないタスクよりも優れたパフォーマンスの一般化を実現します。
論文 参考訳(メタデータ) (2020-09-23T16:35:09Z) - Mimicking Evolution with Reinforcement Learning [10.35437633064506]
人工的な人間のような知性を発達させる道は、自然のシミュレーションで進化の過程を模倣することでもたらされると我々は主張する。
この研究は、進化的リワード(EvER)を通じて進化的リワード(Evolutionary Reward)を提案する。
論文 参考訳(メタデータ) (2020-03-31T18:16:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。