論文の概要: Mimicking Evolution with Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2004.00048v2
- Date: Wed, 6 May 2020 16:08:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 01:07:24.299808
- Title: Mimicking Evolution with Reinforcement Learning
- Title(参考訳): 強化学習による進化の模倣
- Authors: Jo\~ao P. Abrantes, Arnaldo J. Abrantes, Frans A. Oliehoek
- Abstract要約: 人工的な人間のような知性を発達させる道は、自然のシミュレーションで進化の過程を模倣することでもたらされると我々は主張する。
この研究は、進化的リワード(EvER)を通じて進化的リワード(Evolutionary Reward)を提案する。
- 参考スコア(独自算出の注目度): 10.35437633064506
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evolution gave rise to human and animal intelligence here on Earth. We argue
that the path to developing artificial human-like-intelligence will pass
through mimicking the evolutionary process in a nature-like simulation. In
Nature, there are two processes driving the development of the brain: evolution
and learning. Evolution acts slowly, across generations, and amongst other
things, it defines what agents learn by changing their internal reward
function. Learning acts fast, across one's lifetime, and it quickly updates
agents' policy to maximise pleasure and minimise pain. The reward function is
slowly aligned with the fitness function by evolution, however, as agents
evolve the environment and its fitness function also change, increasing the
misalignment between reward and fitness. It is extremely computationally
expensive to replicate these two processes in simulation. This work proposes
Evolution via Evolutionary Reward (EvER) that allows learning to
single-handedly drive the search for policies with increasingly evolutionary
fitness by ensuring the alignment of the reward function with the fitness
function. In this search, EvER makes use of the whole state-action trajectories
that agents go through their lifetime. In contrast, current evolutionary
algorithms discard this information and consequently limit their potential
efficiency at tackling sequential decision problems. We test our algorithm in
two simple bio-inspired environments and show its superiority at generating
more capable agents at surviving and reproducing their genes when compared with
a state-of-the-art evolutionary algorithm.
- Abstract(参考訳): 進化は地球上で人間と動物の知性を生み出した。
人工的な人間のような知性を生み出すための道は、自然のシミュレーションで進化の過程を模倣する。
自然界では、脳の発達を駆動する2つのプロセスがあります。
進化は世代をまたいでゆっくりと、そして何よりも、内部の報酬関数を変えることによって、エージェントが何を学べるかを定義する。
学習は生涯を通じて素早く行動し、快楽を最大化し痛みを最小化するためにエージェントのポリシーを迅速に更新する。
報酬機能は、進化によってフィットネス機能と緩やかに一致しているが、エージェントが環境を進化させ、そのフィットネス機能も変化し、報酬とフィットネスの間の不一致が増大する。
この2つのプロセスをシミュレーションで再現する計算コストは非常に高い。
この研究は、EvER(Evolutionary Reward)による進化論を提案し、学習者は、報酬関数とフィットネス関数との整合性を確保することで、より進化的な適合性を持つポリシーの探索を単手で行うことができる。
この検索では、EvERはエージェントが生涯にわたって行う全ての状態行動軌跡を利用する。
対照的に、現在の進化的アルゴリズムはこの情報を破棄し、結果としてシーケンシャルな決定問題に取り組む際の潜在的な効率を制限する。
このアルゴリズムを2つの単純なバイオインスパイアされた環境でテストし、最先端の進化的アルゴリズムと比較して、生存と遺伝子再生においてより有能なエージェントの生成に優れていることを示した。
関連論文リスト
- Evolutionary Automata and Deep Evolutionary Computation [0.38073142980732994]
進化的オートマトン(英: Evolution Automaticon)とは、進化的計算を無限世代で行う自動機械である。
これはまた、環境との対話的なフィードバックによって自己進化する自然進化の力のヒントを与える。
論文 参考訳(メタデータ) (2024-11-22T15:31:50Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Role of Morphogenetic Competency on Evolution [0.0]
進化計算において、逆関係(進化に関する知性の影響)は、生物レベルの振る舞いの観点からアプローチされる。
我々は、解剖学的形態空間をナビゲートするシステムの最小限のモデルの知性に焦点を当てる。
我々はシリコの標準遺伝アルゴリズムを用いて人工胚の個体群を進化させた。
論文 参考訳(メタデータ) (2023-10-13T11:58:18Z) - Lamarck's Revenge: Inheritance of Learned Traits Can Make Robot
Evolution Better [2.884244918665901]
「もし18世紀の生物学者ラマルクが完全に間違っておらず、生涯に学んだ個々の特性が継承を通じて子孫に受け継がれるとしたらどうだろう。」
この枠組みでは、学習した脳のビットが継承可能なラマルク系と、そうでないダーウィン系を比較する。
論文 参考訳(メタデータ) (2023-09-22T15:29:15Z) - Learning Goal-based Movement via Motivational-based Models in Cognitive
Mobile Robots [58.720142291102135]
人間は、強さと文脈に応じて行動を促進する必要がある。
また、各行動の知覚的快楽に関連する嗜好も作り出します。
これにより、意思決定がより複雑になり、コンテキストに応じてニーズと嗜好のバランスを取ることが求められます。
論文 参考訳(メタデータ) (2023-02-20T04:52:24Z) - The Introspective Agent: Interdependence of Strategy, Physiology, and
Sensing for Embodied Agents [51.94554095091305]
本論では, 環境の文脈において, 自己能力を考慮した内省的エージェントについて論じる。
自然と同じように、私たちは戦略を1つのツールとして再編成して、環境において成功させたいと考えています。
論文 参考訳(メタデータ) (2022-01-02T20:14:01Z) - Epigenetic opportunities for Evolutionary Computation [0.0]
進化計算(Evolutionary Computation)は、複雑な最適化問題を解くために用いられる生物学的にインスパイアされたアルゴリズムのグループである。
遺伝的遺伝からインスピレーションを得る進化的アルゴリズムと、文化的遺伝からインスピレーションを得るSwarm Intelligenceアルゴリズムに分けることができる。
本稿では, 進化的拡張合成に基づく生物学的枠組みの下で, バイオインスパイアされたアルゴリズムを成功裏に分解する。
論文 参考訳(メタデータ) (2021-08-10T09:44:53Z) - Task-Agnostic Morphology Evolution [94.97384298872286]
モルフォロジーと振る舞いを共同適用する現在のアプローチでは、特定のタスクの報酬をモルフォロジー最適化のシグナルとして使用します。
これはしばしば高価なポリシー最適化を必要とし、一般化するために構築されていないタスクに依存した形態をもたらす。
我々は,これらの問題を緩和するための新しいアプローチであるタスク非依存形態進化(tame)を提案する。
論文 参考訳(メタデータ) (2021-02-25T18:59:21Z) - Embodied Intelligence via Learning and Evolution [92.26791530545479]
環境の複雑さが形態学的知能の進化を促進することを示す。
また、進化は速く学習する形態を素早く選択することを示した。
我々の実験は、ボールドウィン効果とモルフォロジーインテリジェンスの発生の両方の力学的基礎を示唆している。
論文 参考訳(メタデータ) (2021-02-03T18:58:31Z) - Evolving the Behavior of Machines: From Micro to Macroevolution [4.061135251278186]
進化はコンピュータ科学者にコンピューティングの出現からインスピレーションを与えてきた。
これにより、マシンの複雑なニューラルネットワークを進化させるツールが生まれました。
現代における人工進化の見解は、電場をマイクロ進化からマクロ進化へと遠ざけつつある。
論文 参考訳(メタデータ) (2020-12-21T21:35:15Z) - Novelty Search makes Evolvability Inevitable [62.997667081978825]
本研究では,ノベルティ探索が,有界な行動空間においても高い進化性を示す圧力を暗黙的に生み出すことを示す。
探索を通して,行動空間において非常に活発な個人に対して,新規性報酬の動的評価を行うことが示されている。
論文 参考訳(メタデータ) (2020-05-13T09:32:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。