論文の概要: Emergent communication enhances foraging behaviour in evolved swarms
controlled by Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2212.08484v1
- Date: Fri, 16 Dec 2022 13:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:20:35.221938
- Title: Emergent communication enhances foraging behaviour in evolved swarms
controlled by Spiking Neural Networks
- Title(参考訳): 創発的コミュニケーションはスパイキングニューラルネットワークによって制御された進化した群れの捕食行動を促進する
- Authors: Cristian Jimenez Romero, Alper Yegenoglu, Aar\'on P\'erez Mart\'in,
Sandra Diaz-Pier, Abigail Morrison
- Abstract要約: アリのような社会昆虫はフェロモンを介して通信し、活動の協調と複雑なタスクを群れとして解決する。
遺伝的アルゴリズムを用いて、スパイキングニューラルネットワーク(SNN)を最適化し、人工脳として機能し、各エージェントの動作を制御する。
フェロモンをベースとしたコミュニケーションによって,コミュニケーションが起こらなかったコロニーに比べて,アリの行動が良くなることが観察された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social insects such as ants communicate via pheromones which allows them to
coordinate their activity and solve complex tasks as a swarm, e.g. foraging for
food. This behaviour was shaped through evolutionary processes. In
computational models, self-coordination in swarms has been implemented using
probabilistic or action rules to shape the decision of each agent and the
collective behaviour. However, manual tuned decision rules may limit the
behaviour of the swarm. In this work we investigate the emergence of
self-coordination and communication in evolved swarms without defining any
rule. We evolve a swarm of agents representing an ant colony. We use a genetic
algorithm to optimize a spiking neural network (SNN) which serves as an
artificial brain to control the behaviour of each agent. The goal of the colony
is to find optimal ways to forage for food in the shortest amount of time. In
the evolutionary phase, the ants are able to learn to collaborate by depositing
pheromone near food piles and near the nest to guide its cohorts. The pheromone
usage is not encoded into the network; instead, this behaviour is established
through the optimization procedure. We observe that pheromone-based
communication enables the ants to perform better in comparison to colonies
where communication did not emerge. We assess the foraging performance by
comparing the SNN based model to a rule based system. Our results show that the
SNN based model can complete the foraging task more efficiently in a shorter
time. Our approach illustrates that even in the absence of pre-defined rules,
self coordination via pheromone emerges as a result of the network
optimization. This work serves as a proof of concept for the possibility of
creating complex applications utilizing SNNs as underlying architectures for
multi-agent interactions where communication and self-coordination is desired.
- Abstract(参考訳): アリなどの社会昆虫はフェロモンを介して通信し、その活動の調整や、食料の採餌など複雑なタスクの解決を可能にする。
この行動は進化過程によって形作られた。
計算モデルでは、群における自己調整は確率的あるいは行動規則を用いて実装され、それぞれのエージェントと集団行動の決定を形作る。
しかし、手動調整決定規則は、Swarmの動作を制限する可能性がある。
本研究では,進化した群れにおける自己調整とコミュニケーションの出現を規則を定めずに検討する。
我々はアリコロニーを表すエージェント群を進化させた。
遺伝的アルゴリズムを用いて、スパイキングニューラルネットワーク(SNN)を最適化し、人工脳として機能し、各エージェントの動作を制御する。
植民地の目標は、最小限の時間で食糧を捕食する最適な方法を見つけることである。
進化段階において、アリは食物の山や巣の近くにフェロモンを堆積させてコホートを誘導することで、協力を学べる。
フェロモンの使用はネットワークにエンコードされず、代わりに最適化手順によってこの動作が確立される。
フェロモンをベースとしたコミュニケーションにより,コミュニケーションが起こらなかったコロニーに比べて,アリの行動は良好である。
我々は,SNNモデルとルールベースシステムを比較し,採餌性能を評価する。
以上の結果から,SNNモデルによりより短時間で捕食作業をより効率的に完了できることが示唆された。
提案手法は,事前定義されたルールがなくてもフェロモンによる自己調整がネットワーク最適化の結果現れることを示す。
この研究は、コミュニケーションと自己調整が望まれるマルチエージェントインタラクションの基盤となるアーキテクチャとしてSNNを利用する複雑なアプリケーションを作成する可能性の実証となる。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Neural Amortized Inference for Nested Multi-agent Reasoning [54.39127942041582]
本研究では,人間のような推論能力と計算限界のギャップを埋める新しい手法を提案する。
提案手法を2つの挑戦的マルチエージェント相互作用領域で評価する。
論文 参考訳(メタデータ) (2023-08-21T22:40:36Z) - Leveraging Human Feedback to Evolve and Discover Novel Emergent
Behaviors in Robot Swarms [14.404339094377319]
我々は、人間の入力を活用して、特定のマルチエージェントシステムから現れる可能性のある集団行動の分類を自動で発見することを目指している。
提案手法は,Swarm集団行動に対する類似性空間を学習することにより,ユーザの嗜好に適応する。
我々は,2つのロボット能力モデルを用いたシミュレーションにおいて,本手法が従来よりも豊かな創発的行動の集合を常に発見できることを検証した。
論文 参考訳(メタデータ) (2023-04-25T15:18:06Z) - Efficiently Evolving Swarm Behaviors Using Grammatical Evolution With
PPA-style Behavior Trees [4.111899441919164]
人工エージェントによるSwarmの動作の進化は、計算コストが高く、困難である。
本稿では, PPA(Postcondition-Precondition-Action)標準行動木(BT)と文法的進化(BT)を体系的に組み合わせることで, 群集の挙動を進化させる。
進化するアルゴリズムは、前回の作業よりも8倍改善された、飼料と巣のメンテナンスタスクの学習試行の75%に成功しました。
論文 参考訳(メタデータ) (2022-03-29T17:36:50Z) - Collective motion emerging from evolving swarm controllers in different
environments using gradient following task [2.7402733069181]
センサと通信能力に制限のあるロボットが環境特性の勾配に従わなければならないという課題を考察する。
我々は、ディファレンシャル進化を用いて、Thymio IIロボットのシミュレーションのためのニューラルネットワークコントローラを進化させる。
進化したロボットコントローラは、タスクを解決したSwarm動作を誘導する。
論文 参考訳(メタデータ) (2022-03-22T10:08:50Z) - A neural net architecture based on principles of neural plasticity and
development evolves to effectively catch prey in a simulated environment [2.834895018689047]
A-Lifeにとっての大きな課題は、行動が「ライフライク」なエージェントを深く構築することである。
本稿では,動物の脳を構成するプロセスに類似したプロセスを用いて,人工エージェントを駆動するネットワークを構築するためのアーキテクチャとアプローチを提案する。
このアーキテクチャは、センサー入力の変化に対する迅速な応答を可能にするため、小さな自律ロボットやドローンを制御するのに有用であると考えています。
論文 参考訳(メタデータ) (2022-01-28T05:10:56Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Continuous Ant-Based Neural Topology Search [62.200941836913586]
この研究は、アリコロニー最適化に基づく、自然に着想を得たニューラルアーキテクチャサーチ(NAS)アルゴリズムを導入している。
連続アントベースのニューラルトポロジーサーチ(CANTS)は、アリが現実世界でどのように動くかに強く影響を受けている。
論文 参考訳(メタデータ) (2020-11-21T17:49:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。