論文の概要: Understandable Controller Extraction from Video Observations of Swarms
- arxiv url: http://arxiv.org/abs/2209.01118v1
- Date: Fri, 2 Sep 2022 15:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-05 12:51:26.245299
- Title: Understandable Controller Extraction from Video Observations of Swarms
- Title(参考訳): 群れのビデオ観測から理解可能な制御器抽出
- Authors: Khulud Alharthi, Zahraa S Abdallah, Sabine Hauert
- Abstract要約: スワムの挙動はエージェントと環境の局所的な相互作用から生じ、しばしば単純な規則として符号化される。
ビデオデモから理解可能なSwarmコントローラを自動的に抽出する手法を開発した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Swarm behavior emerges from the local interaction of agents and their
environment often encoded as simple rules. Extracting the rules by watching a
video of the overall swarm behavior could help us study and control swarm
behavior in nature, or artificial swarms that have been designed by external
actors. It could also serve as a new source of inspiration for swarm robotics.
Yet extracting such rules is challenging as there is often no visible link
between the emergent properties of the swarm and their local interactions. To
this end, we develop a method to automatically extract understandable swarm
controllers from video demonstrations. The method uses evolutionary algorithms
driven by a fitness function that compares eight high-level swarm metrics. The
method is able to extract many controllers (behavior trees) in a simple
collective movement task. We then provide a qualitative analysis of behaviors
that resulted in different trees, but similar behaviors. This provides the
first steps toward automatic extraction of swarm controllers based on
observations.
- Abstract(参考訳): エージェントとそれらの環境の局所的な相互作用は、しばしば単純な規則として符号化される。
swarmの振る舞いをビデオで見ることによって、ルールを抽出することは、自然界のswarmの振る舞いや、外部のアクターが設計した人工的なswarmの研究と制御に役立つでしょう。
また、Swarm Roboticsの新たなインスピレーション源にもなるかもしれない。
しかし、これらの規則を抽出することは、スウォームの創発的性質とそれらの局所的な相互作用の間には、しばしば目に見えるリンクがないため、難しい。
そこで我々は,ビデオデモから理解可能なSwarmコントローラを自動的に抽出する手法を開発した。
この方法は8つのハイレベルなSwarmメトリクスを比較するフィットネス関数によって駆動される進化的アルゴリズムを使用する。
この方法は、単純な集団移動タスクで多くのコントローラ(行動木)を抽出することができる。
次に、異なる木を産み出す行動の質的分析を行うが、類似した行動は認めない。
これにより、観測に基づくswarmコントローラの自動抽出に向けた最初のステップが提供される。
関連論文リスト
- Spiking Neural Networks as a Controller for Emergent Swarm Agents [8.816729033097868]
既存の研究では、バイナリセンサーとシンプルだが手書きのコントローラー構造のみを備えたロボット群における創発的行動について検討している。
本稿では,特に創発的行動をもたらす局所的相互作用規則を見つけるために,スパイクニューラルネットワークを訓練する可能性について検討する。
論文 参考訳(メタデータ) (2024-10-21T16:41:35Z) - Multistep Inverse Is Not All You Need [87.62730694973696]
実世界の制御環境では、観測空間は不要に高次元であり、時間関連ノイズにさらされることが多い。
したがって、観測空間を制御関連変数のより単純な空間にマッピングするエンコーダを学ぶことが望ましい。
本稿では,多段階逆予測と遅延フォワードモデルを組み合わせた新しいアルゴリズムACDFを提案する。
論文 参考訳(メタデータ) (2024-03-18T16:36:01Z) - CALM: Conditional Adversarial Latent Models for Directable Virtual
Characters [71.66218592749448]
本研究では,ユーザが制御する対話型仮想キャラクタに対して,多種多様かつ指示可能な振る舞いを生成するための条件付き適応潜在モデル(CALM)を提案する。
模倣学習を用いて、CALMは人間の動きの複雑さを捉える動きの表現を学び、キャラクターの動きを直接制御できる。
論文 参考訳(メタデータ) (2023-05-02T09:01:44Z) - Leveraging Human Feedback to Evolve and Discover Novel Emergent
Behaviors in Robot Swarms [14.404339094377319]
我々は、人間の入力を活用して、特定のマルチエージェントシステムから現れる可能性のある集団行動の分類を自動で発見することを目指している。
提案手法は,Swarm集団行動に対する類似性空間を学習することにより,ユーザの嗜好に適応する。
我々は,2つのロボット能力モデルを用いたシミュレーションにおいて,本手法が従来よりも豊かな創発的行動の集合を常に発見できることを検証した。
論文 参考訳(メタデータ) (2023-04-25T15:18:06Z) - Program Generation from Diverse Video Demonstrations [49.202289347899836]
複数の観察を総合することは、歴史的に機械が把握するのが困難であったタスクである。
本稿では,要約と翻訳を同時に行うことで,ビデオデモから一般的なルールを抽出できるモデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T01:51:45Z) - Contextually Aware Intelligent Control Agents for Heterogeneous Swarms [0.0]
Swarmシェパーディング研究における新たな課題は、効率的で効率的な人工知能アルゴリズムを設計することである。
本研究では,コンテキスト認識型Swarm制御インテリジェントエージェントの設計手法を提案する。
我々は同種群と異種群の両方で羊飼いが成功したことを実証した。
論文 参考訳(メタデータ) (2022-11-22T20:25:59Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Collective motion emerging from evolving swarm controllers in different
environments using gradient following task [2.7402733069181]
センサと通信能力に制限のあるロボットが環境特性の勾配に従わなければならないという課題を考察する。
我々は、ディファレンシャル進化を用いて、Thymio IIロボットのシミュレーションのためのニューラルネットワークコントローラを進化させる。
進化したロボットコントローラは、タスクを解決したSwarm動作を誘導する。
論文 参考訳(メタデータ) (2022-03-22T10:08:50Z) - DriveGAN: Towards a Controllable High-Quality Neural Simulation [147.6822288981004]
DriveGANと呼ばれる新しい高品質のニューラルシミュレータを紹介します。
DriveGANは、異なるコンポーネントを監督なしで切り離すことによって制御性を達成する。
実世界の運転データ160時間を含む複数のデータセットでdriveganをトレーニングします。
論文 参考訳(メタデータ) (2021-04-30T15:30:05Z) - A model-based framework for learning transparent swarm behaviors [6.310689648471231]
本稿では,ロボット群に対する理解可能かつ検証可能な行動を設計するためのモデルベースフレームワークを提案する。
このフレームワークは4つのケーススタディでテストされ、アグリゲーションとフォージングタスクが特徴だ。
論文 参考訳(メタデータ) (2021-03-09T10:45:57Z) - State-Only Imitation Learning for Dexterous Manipulation [63.03621861920732]
本稿では,国家のみの模倣学習について考察する。
我々は、逆ダイナミクスモデルをトレーニングし、状態のみのデモンストレーションのアクションを予測するためにそれを使用します。
我々の手法は状態-作用アプローチと同等に動作し、RL単独よりもかなり優れています。
論文 参考訳(メタデータ) (2020-04-07T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。