論文の概要: Quality Evolvability ES: Evolving Individuals With a Distribution of
Well Performing and Diverse Offspring
- arxiv url: http://arxiv.org/abs/2103.10790v1
- Date: Fri, 19 Mar 2021 13:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 14:40:02.997340
- Title: Quality Evolvability ES: Evolving Individuals With a Distribution of
Well Performing and Diverse Offspring
- Title(参考訳): 品質進化性es:良好なパフォーマンスと多様な子孫の分布を持つ進化する個人
- Authors: Adam Katona, Daniel W. Franks, James Alfred Walker
- Abstract要約: 進化性アルゴリズムは、優れた遺伝子表現を自動的に学習することを目指している。
進化性ESは、ほとんど計算せずに進化性を直接選択できる。
タスクのパフォーマンスと進化性を同時に最適化するQuality Evolvability ESを提案する。
- 参考スコア(独自算出の注目度): 0.2578242050187029
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the most important lessons from the success of deep learning is that
learned representations tend to perform much better at any task compared to
representations we design by hand. Yet evolution of evolvability algorithms,
which aim to automatically learn good genetic representations, have received
relatively little attention, perhaps because of the large amount of
computational power they require. The recent method Evolvability ES allows
direct selection for evolvability with little computation. However, it can only
be used to solve problems where evolvability and task performance are aligned.
We propose Quality Evolvability ES, a method that simultaneously optimizes for
task performance and evolvability and without this restriction. Our proposed
approach Quality Evolvability has similar motivation to Quality Diversity
algorithms, but with some important differences. While Quality Diversity aims
to find an archive of diverse and well-performing, but potentially genetically
distant individuals, Quality Evolvability aims to find a single individual with
a diverse and well-performing distribution of offspring. By doing so Quality
Evolvability is forced to discover more evolvable representations. We
demonstrate on robotic locomotion control tasks that Quality Evolvability ES,
similarly to Quality Diversity methods, can learn faster than objective-based
methods and can handle deceptive problems.
- Abstract(参考訳): ディープラーニングの成功から得られた最も重要な教訓の1つは、学習した表現が、私たちが手で設計した表現よりも、どんなタスクでもずっとうまく機能する傾向があることです。
しかし、優れた遺伝的表現を自動学習することを目的とした進化性アルゴリズムは、おそらく大量の計算能力を必要とするため、比較的注目を集めていない。
最近のメソッド evolvability es は、少ない計算で進化可能性を直接選択できる。
しかし、進化可能性とタスクパフォーマンスが一致した問題を解決するためにのみ使用できる。
本稿では,タスク性能と進化性を同時に最適化する手法であるQuality Evolvability ESを提案する。
提案手法は,品質多様性アルゴリズムと同様のモチベーションを持つが,重要な差異がある。
Quality Diversityは、多種多様だが遺伝的に遠く離れた個体のアーカイブを見つけることを目的としているが、Quality Evolvabilityは、多種多様で優れた子孫の分布を持つ個人を見つけることを目的としている。
そうすることで、Quality Evolvabilityはより進化可能な表現を見つけることを余儀なくされます。
ロボットのロコモーション制御タスクにおいて,品質進化性esは,品質多様性法と同様に,客観的な手法よりも早く学習でき,騙し込みの問題に対処できることを示す。
関連論文リスト
- GenView: Enhancing View Quality with Pretrained Generative Model for Self-Supervised Learning [90.13980177575809]
GenViewは、ポジティブなビューの多様性を強化するコントロール可能なフレームワークである。
我々は、正のペアの品質を評価する品質駆動のコントラスト損失を導入する。
肯定的なビュー品質の改善と品質主導のコントラスト損失のおかげで、GenViewはさまざまなタスクにわたる自己教師型学習を大幅に改善した。
論文 参考訳(メタデータ) (2024-03-18T17:41:26Z) - DARLEI: Deep Accelerated Reinforcement Learning with Evolutionary
Intelligence [77.78795329701367]
本稿では,進化アルゴリズムと並列化強化学習を組み合わせたフレームワークであるDARLEIを提案する。
我々はDARLEIの性能を様々な条件で特徴付け、進化形態の多様性に影響を与える要因を明らかにした。
今後DARLEIを拡張して、よりリッチな環境における多様な形態素間の相互作用を取り入れていきたいと考えています。
論文 参考訳(メタデータ) (2023-12-08T16:51:10Z) - Data Diversity Matters for Robust Instruction Tuning [129.83575908023312]
近年の研究では、高品質で多様な命令チューニングデータセットをキュレートすることにより、命令追従能力を大幅に改善できることが示されている。
データセットの多様性と品質を制御できる新しいアルゴリズムQDIT(Quality-Diversity Instruction Tuning)を提案する。
いくつかの大規模命令チューニングデータセット上でのQDITの性能を検証した結果、最悪のケースと平均ケースのパフォーマンスを大幅に改善できることがわかった。
論文 参考訳(メタデータ) (2023-11-21T19:12:18Z) - Quality Diversity through Human Feedback: Towards Open-Ended Diversity-Driven Optimization [13.436983663467938]
本稿では,ヒトフィードバックによる品質の多様性(QDHF)について紹介する。
実証的な研究によると、QDHFは自動多様性発見において最先端の手法を著しく上回っている。
オープンな生成タスクにおいて、QDHFは拡散モデルからテキストから画像への生成の多様性を大幅に向上させる。
論文 参考訳(メタデータ) (2023-10-18T16:46:16Z) - Human Decision Makings on Curriculum Reinforcement Learning with
Difficulty Adjustment [52.07473934146584]
我々は,カリキュラム強化学習結果を,人的意思決定プロセスから学ぶことで,難しすぎず,難しすぎるような望ましいパフォーマンスレベルに導く。
本システムは非常に並列化可能であり,大規模強化学習アプリケーションの訓練が可能となる。
強化学習性能は、人間の所望の難易度と同期してうまく調整できることが示される。
論文 参考訳(メタデータ) (2022-08-04T23:53:51Z) - Co-Evolutionary Diversity Optimisation for the Traveling Thief Problem [11.590506672325668]
本稿では,多成分走行盗難問題に対する2つの空間を同時に探索する共進化的アルゴリズムを提案する。
その結果,論文の基盤となる進化的多様性アルゴリズムと比較して,共進化的アルゴリズムの多様性を著しく向上させる能力を示した。
論文 参考訳(メタデータ) (2022-07-28T12:02:15Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Discovering Generalizable Skills via Automated Generation of Diverse
Tasks [82.16392072211337]
本稿では,多種多様なタスクの自動生成による一般化可能なスキルの発見手法を提案する。
教師なしスキル発見の先行研究とは対照的に,本手法では各スキルをトレーニング可能なタスクジェネレータが生成するユニークなタスクとペアリングする。
生成したタスクにおけるロボットの動作に定義されたタスク判別器を共同で訓練し、多様性目標の低いエビデンスを推定する。
学習スキルは階層的な強化学習アルゴリズムで構成され、目に見えない目標タスクを解決する。
論文 参考訳(メタデータ) (2021-06-26T03:41:51Z) - Emergent Hand Morphology and Control from Optimizing Robust Grasps of
Diverse Objects [63.89096733478149]
多様な物体をつかむために、効果的なハンドデザインが自然に現れるデータ駆動型アプローチを紹介します。
形態と把持スキルを共同で効率的に設計するベイズ最適化アルゴリズムを開発した。
我々は,新しい物体をつかむための堅牢で費用効率のよい手形態を発見するためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-22T17:52:29Z) - Quality and Diversity in Evolutionary Modular Robotics [1.290382979353427]
Evolutionary Roboticsでは、あるタスクを解くロボットを最適化するために、多くのソリューションが進化している。
品質の多様性のアルゴリズムは、異なるソリューションに報酬を与える追加の手段を導入することで、早めの収束を克服しようとします。
論文 参考訳(メタデータ) (2020-08-05T13:08:14Z) - Diversity Policy Gradient for Sample Efficient Quality-Diversity
Optimization [7.8499505363825755]
多様性とパフォーマンスを両立させることは、探索・探索のトレードオフに対処するための便利な方法である。
本稿では、ポリシーグラディエントアルゴリズムと品質多様性アプローチの強みを組み合わせた新しいアルゴリズムQDPGを提案する。
論文 参考訳(メタデータ) (2020-06-15T16:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。