論文の概要: Generative Adversarial Neuroevolution for Control Behaviour Imitation
- arxiv url: http://arxiv.org/abs/2304.12432v1
- Date: Mon, 3 Apr 2023 16:33:22 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-30 07:29:03.936617
- Title: Generative Adversarial Neuroevolution for Control Behaviour Imitation
- Title(参考訳): 制御行動模倣のための生成的adversarial neuroevolution
- Authors: Maximilien Le Clei, Pierre Bellec
- Abstract要約: 本稿では,一般的なシミュレーション環境における行動模倣にディープ・ニューロエボリューションが有効かどうかを考察する。
我々は、単純な共進化的逆数生成フレームワークを導入し、標準の深い再帰ネットワークを進化させることにより、その能力を評価する。
全てのタスクにおいて、事前訓練されたエージェントが獲得したものよりも高いスコアを達成できる最後のエリートアクターが見つかる。
- 参考スコア(独自算出の注目度): 3.04585143845864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is a recent surge in interest for imitation learning, with large human
video-game and robotic manipulation datasets being used to train agents on very
complex tasks. While deep neuroevolution has recently been shown to match the
performance of gradient-based techniques on various reinforcement learning
problems, the application of deep neuroevolution techniques to imitation
learning remains relatively unexplored. In this work, we propose to explore
whether deep neuroevolution can be used for behaviour imitation on popular
simulation environments. We introduce a simple co-evolutionary adversarial
generation framework, and evaluate its capabilities by evolving standard deep
recurrent networks to imitate state-of-the-art pre-trained agents on 8 OpenAI
Gym state-based control tasks. Across all tasks, we find the final elite actor
agents capable of achieving scores as high as those obtained by the pre-trained
agents, all the while closely following their score trajectories. Our results
suggest that neuroevolution could be a valuable addition to deep learning
techniques to produce accurate emulation of behavioural agents. We believe that
the generality and simplicity of our approach opens avenues for imitating
increasingly complex behaviours in increasingly complex settings, e.g. human
behaviour in real-world settings. We provide our source code, model checkpoints
and results at github.com/MaximilienLC/gane.
- Abstract(参考訳): 最近の模倣学習への関心は高まり、複雑なタスクでエージェントを訓練するために、巨大な人間のビデオゲームとロボット操作データセットが使われている。
近年、深層神経進化は様々な強化学習問題における勾配に基づく技術の性能と一致することが示されているが、深層神経進化技術の模倣学習への応用はいまだに未解明である。
本研究では,一般的なシミュレーション環境における行動模倣に深部神経進化が有効かどうかを検討する。
我々は,OpenAI Gymの8つの状態ベース制御タスク上で,最先端のエージェントを模倣するために,標準的な深部リカレントネットワークを進化させ,その能力を評価する。
あらゆる課題において、訓練済みのエージェントが獲得したスコアよりも高いスコアを達成できる最後のエリートアクターが、スコアの軌跡に忠実に追従しているのが分かる。
以上の結果から,神経進化は行動エージェントの正確なエミュレーションを実現するための深層学習技術に重要な付加物となる可能性が示唆された。
私たちのアプローチの汎用性とシンプルさは、ますます複雑な設定で複雑な振る舞いを模倣する道を開くと信じています。
我々はgithub.com/MaximilienLC/ganeでソースコードとモデルチェックポイントと結果を提供しています。
関連論文リスト
- Life, uh, Finds a Way: Systematic Neural Search [2.163881720692685]
エージェントの動作に迅速に適応して、設定における継続的な問題を解決するという課題に取り組みます。
深層強化学習に焦点をあてる代わりに,探索手順の物理的表現としての視聴行動を提案する。
本稿では,行動実行とグラフの突然変異の間の厳密なフィードバックループを調節することにより,行動の暗黙的な列挙を行うアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2024-10-02T09:06:54Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Incremental procedural and sensorimotor learning in cognitive humanoid
robots [52.77024349608834]
本研究は,手順を段階的に学習する認知エージェントを提案する。
各サブステージで必要とされる認知機能と, エージェントが未解決の課題に, 新たな機能の追加がどう対処するかを示す。
結果は、このアプローチが複雑なタスクを段階的に解くことができることを示している。
論文 参考訳(メタデータ) (2023-04-30T22:51:31Z) - Towards the Neuroevolution of Low-level Artificial General Intelligence [5.2611228017034435]
我々は、AI(Artificial General Intelligence, AGI)の検索は、人間レベルの知能よりもはるかに低いレベルから始まるべきだと論じる。
我々の仮説は、エージェントが環境の中で行動するとき、学習は感覚フィードバックによって起こるというものである。
環境反応から学習する生物学的にインスパイアされた人工ニューラルネットワークを進化させる手法を評価する。
論文 参考訳(メタデータ) (2022-07-27T15:30:50Z) - Probe-Based Interventions for Modifying Agent Behavior [4.324022085722613]
本研究では,事前学習したニューラルネットの表現を,外的特性に応じて更新する手法を開発した。
実験では,多種多様なニューラルネットワークに対するヒトエージェントチームのパフォーマンス向上のために,我々の手法がどのように用いられるかを示す。
論文 参考訳(メタデータ) (2022-01-26T19:14:00Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Deep Imitation Learning for Bimanual Robotic Manipulation [70.56142804957187]
本稿では,ロボットによるバイマニュアル操作のための深層模倣学習フレームワークを提案する。
中心となる課題は、操作スキルを異なる場所にあるオブジェクトに一般化することである。
i)マルチモーダルダイナミクスを要素運動プリミティブに分解し、(ii)リカレントグラフニューラルネットワークを用いて各プリミティブをパラメータ化して相互作用を捕捉し、(iii)プリミティブを逐次的に構成する高レベルプランナと、プリミティブダイナミクスと逆運動学制御を組み合わせた低レベルコントローラを統合することを提案する。
論文 参考訳(メタデータ) (2020-10-11T01:40:03Z) - AutoML-Zero: Evolving Machine Learning Algorithms From Scratch [76.83052807776276]
基本数学的操作をビルディングブロックとして使うだけで,完全な機械学習アルゴリズムを自動的に発見できることが示される。
汎用的な検索空間を通じて人間のバイアスを大幅に低減する新しいフレームワークを導入することでこれを実証する。
機械学習アルゴリズムをゼロから発見する上で、これらの予備的な成功は、この分野における有望な新しい方向性を示していると信じている。
論文 参考訳(メタデータ) (2020-03-06T19:00:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。