論文の概要: Development of swarm behavior in artificial learning agents that adapt
to different foraging environments
- arxiv url: http://arxiv.org/abs/2004.00552v1
- Date: Wed, 1 Apr 2020 16:32:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-17 19:37:01.964216
- Title: Development of swarm behavior in artificial learning agents that adapt
to different foraging environments
- Title(参考訳): 異なる採餌環境に適応する人工学習エージェントにおける群行動の発達
- Authors: Andrea L\'opez-Incera, Katja Ried, Thomas M\"uller, Hans J. Briegel
- Abstract要約: 我々は、各個人を人工知能エージェントとしてモデル化するために、射影シミュレーションを適用した。
我々は、エージェントが資源に到達するのに必要な距離によって、どのように異なる種類の集団運動が出現するかを観察する。
さらに,創発的集団力学の異なる種類において生じる個々の軌跡の特性について検討した。
- 参考スコア(独自算出の注目度): 2.752817022620644
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Collective behavior, and swarm formation in particular, has been studied from
several perspectives within a large variety of fields, ranging from biology to
physics. In this work, we apply Projective Simulation to model each individual
as an artificial learning agent that interacts with its neighbors and
surroundings in order to make decisions and learn from them. Within a
reinforcement learning framework, we discuss one-dimensional learning scenarios
where agents need to get to food resources to be rewarded. We observe how
different types of collective motion emerge depending on the distance the
agents need to travel to reach the resources. For instance, strongly aligned
swarms emerge when the food source is placed far away from the region where
agents are situated initially. In addition, we study the properties of the
individual trajectories that occur within the different types of emergent
collective dynamics. Agents trained to find distant resources exhibit
individual trajectories with L\'evy-like characteristics as a consequence of
the collective motion, whereas agents trained to reach nearby resources present
Brownian-like trajectories.
- Abstract(参考訳): 集団行動、特に群の形成は、生物学から物理学まで、様々な分野の様々な視点から研究されてきた。
本研究は,各個人を,隣人や周囲と対話し,意思決定を行い,そこから学ぶための人工学習エージェントとしてモデル化するために,投影シミュレーションを適用する。
強化学習フレームワークでは,エージェントが食料資源に報奨を受ける必要がある1次元学習シナリオについて議論する。
我々は,エージェントが資源に到達するのに必要な距離に応じて,異なる種類の集団運動がどのように出現するかを観察した。
例えば、食品源がエージェントが最初に配置された地域から遠く離れたところに置かれると、強く整列する群れが現れる。
さらに,創発的集団力学の異なる種類において生じる個々の軌跡の特性について検討した。
遠くの資源を見つけるために訓練されたエージェントは、集団的な動きの結果、L'evyのような特徴を持つ個々の軌道を示す。
関連論文リスト
- Behavior-Inspired Neural Networks for Relational Inference [3.7219180084857473]
最近の研究は、エージェント間の関係を、その身体行動の観察に基づいて分類することを学ぶ。
エージェントの観測可能な振る舞いと,その動作を決定する潜在カテゴリの抽象化レベルを導入する。
エージェントの身体的近さと嗜好を非線形意見力学モデルに統合し、相互排他的潜在カテゴリを特定し、エージェントの時間的進化を予測し、エージェントの身体的挙動を制御するメカニズムを提供する。
論文 参考訳(メタデータ) (2024-06-20T21:36:54Z) - Learning Goal-based Movement via Motivational-based Models in Cognitive
Mobile Robots [58.720142291102135]
人間は、強さと文脈に応じて行動を促進する必要がある。
また、各行動の知覚的快楽に関連する嗜好も作り出します。
これにより、意思決定がより複雑になり、コンテキストに応じてニーズと嗜好のバランスを取ることが求められます。
論文 参考訳(メタデータ) (2023-02-20T04:52:24Z) - Behavioral Cloning via Search in Video PreTraining Latent Space [0.13999481573773073]
専門家のデモンストレーションのデータセット上での探索問題として制御問題を定式化する。
我々は,ビデオPreTrainingモデルの潜在表現において,BASALT MineRLデータセットの近接探索を行う。
エージェントは、エージェントの状態表現とデータセットから選択された専門家軌跡との距離が分岐しない限り、専門家軌跡からのアクションをコピーする。
論文 参考訳(メタデータ) (2022-12-27T00:20:37Z) - Collaborative Training of Heterogeneous Reinforcement Learning Agents in
Environments with Sparse Rewards: What and When to Share? [7.489793155793319]
本研究は,本質的なモチベーションを通じて得られた情報と,より効率的な探索と学習の高速化を目的とした情報を組み合わせることに焦点を当てる。
計算コストの少ない協調的なフレームワークが知識を共有することなく独立した学習プロセスより優れていることを示す。
論文 参考訳(メタデータ) (2022-02-24T16:15:51Z) - Information is Power: Intrinsic Control via Information Capture [110.3143711650806]
我々は,潜時状態空間モデルを用いて推定したエージェントの状態訪問のエントロピーを最小化する,コンパクトで汎用的な学習目的を論じる。
この目的は、不確実性の低減に対応する環境情報収集と、将来の世界状態の予測不可能性の低減に対応する環境制御の両方をエージェントに誘導する。
論文 参考訳(メタデータ) (2021-12-07T18:50:42Z) - Multi-Agent Imitation Learning with Copulas [102.27052968901894]
マルチエージェント模倣学習は、観察と行動のマッピングを学習することで、デモからタスクを実行するために複数のエージェントを訓練することを目的としている。
本稿では,確率変数間の依存を捉える強力な統計ツールである copula を用いて,マルチエージェントシステムにおける相関関係と協調関係を明示的にモデル化する。
提案モデルでは,各エージェントの局所的行動パターンと,エージェント間の依存構造のみをフルにキャプチャするコプラ関数を別々に学習することができる。
論文 参考訳(メタデータ) (2021-07-10T03:49:41Z) - Learning Latent Representations to Influence Multi-Agent Interaction [65.44092264843538]
エージェントのポリシーの潜在表現を学習するための強化学習に基づくフレームワークを提案する。
提案手法は代替手段よりも優れており,他のエージェントに影響を与えることを学習している。
論文 参考訳(メタデータ) (2020-11-12T19:04:26Z) - Learning intuitive physics and one-shot imitation using
state-action-prediction self-organizing maps [0.0]
人間は探索と模倣によって学び、世界の因果モデルを構築し、両方を使って新しいタスクを柔軟に解決する。
このような特徴を生み出す単純だが効果的な教師なしモデルを提案する。
エージェントがアクティブな推論スタイルで柔軟に解決する、複数の関連するが異なる1ショットの模倣タスクに対して、その性能を示す。
論文 参考訳(メタデータ) (2020-07-03T12:29:11Z) - Learning to Incentivize Other Learning Agents [73.03133692589532]
我々は、学習インセンティブ関数を用いて、RLエージェントに他のエージェントに直接報酬を与える能力を持たせる方法を示す。
このようなエージェントは、一般的なマルコフゲームにおいて、標準のRLと対戦型エージェントを著しく上回っている。
私たちの仕事は、マルチエージェントの未来において共通の善を確実にする道のりに沿って、より多くの機会と課題を指しています。
論文 参考訳(メタデータ) (2020-06-10T20:12:38Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。