論文の概要: Towards a reinforcement learning de novo genome assembler
- arxiv url: http://arxiv.org/abs/2102.02649v1
- Date: Tue, 2 Feb 2021 23:43:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 16:39:11.129195
- Title: Towards a reinforcement learning de novo genome assembler
- Title(参考訳): novoゲノムアセンブラの強化学習に向けて
- Authors: Kleber Padovani, Roberto Xavier, Andre Carvalho, Anna Reali, Annie
Chateau, Ronnie Alves
- Abstract要約: 強化学習は 人間の監督なしに 複雑な活動を解くことに 非常に有望であることが証明されています
この研究は、この関連する現実世界の問題であるゲノム組立を解決するために強化学習の応用を光を当てることを目的としている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The use of reinforcement learning has proven to be very promising for solving
complex activities without human supervision during their learning process.
However, their successful applications are predominantly focused on fictional
and entertainment problems - such as games. Based on the above, this work aims
to shed light on the application of reinforcement learning to solve this
relevant real-world problem, the genome assembly. By expanding the only
approach found in the literature that addresses this problem, we carefully
explored the aspects of intelligent agent learning, performed by the Q-learning
algorithm, to understand its suitability to be applied in scenarios whose
characteristics are more similar to those faced by real genome projects. The
improvements proposed here include changing the previously proposed reward
system and including state space exploration optimization strategies based on
dynamic pruning and mutual collaboration with evolutionary computing. These
investigations were tried on 23 new environments with larger inputs than those
used previously. All these environments are freely available on the internet
for the evolution of this research by the scientific community. The results
suggest consistent performance progress using the proposed improvements,
however, they also demonstrate the limitations of them, especially related to
the high dimensionality of state and action spaces. We also present, later, the
paths that can be traced to tackle genome assembly efficiently in real
scenarios considering recent, successfully reinforcement learning applications
- including deep reinforcement learning - from other domains dealing with
high-dimensional inputs.
- Abstract(参考訳): 強化学習の使用は、学習プロセス中に人間の監督なしに複雑な活動を解くことに非常に有望であることが証明されている。
しかし、彼らの成功例は主にゲームのようなフィクションやエンターテイメントの問題に焦点を当てている。
本研究は、この関連現実問題であるゲノム組立を解くため、強化学習の応用に光を当てることを目的としている。
この問題に対処する文献に唯一見られるアプローチを拡張することで、我々はQ学習アルゴリズムによって実行される知的エージェント学習の側面を慎重に検討し、実際のゲノムプロジェクトとより類似した特徴を持つシナリオに適用できる可能性を理解する。
提案された改善には、以前に提案された報酬システムの変更、動的プランニングに基づく状態空間探索最適化戦略、進化的コンピューティングとの相互協力が含まれる。
これらの調査は、従来よりも大きな入力を持つ23の新しい環境で実施された。
これらの環境はすべて、科学コミュニティによるこの研究の進化のためにインターネット上で自由に利用できる。
その結果,提案した改良手法による一貫した性能向上が示唆されたが,特に状態空間と行動空間の高次元性に関する限界も示している。
また,近年,高次元入力を扱う他の領域から,深層強化学習を含む学習アプリケーションの強化を図ることで,実際のシナリオにおいてゲノムアセンブリーを効率的に取り組める経路を提案する。
関連論文リスト
- Reinforcement Learning-assisted Evolutionary Algorithm: A Survey and
Research Opportunities [61.526437366038074]
進化的アルゴリズムの構成要素として統合された強化学習は,近年,優れた性能を示している。
本稿では,RL-EA 統合手法,RL-EA が採用する RL-EA 支援戦略,および既存文献による適用について論じる。
この調査は、RL-EAに関心を持つ研究者の豊富なリソースとして役立ち、現状を概観し、関連する課題を強調している。
論文 参考訳(メタデータ) (2023-08-25T15:06:05Z) - Human-Timescale Adaptation in an Open-Ended Task Space [56.55530165036327]
大規模にRLエージェントを訓練することで、オープンエンドの新規な3D問題に人間と同じくらい早く適応できる一般的なコンテキスト内学習アルゴリズムが実現可能であることを示す。
我々の研究は、より大規模で適応的なRLエージェントの基礎を築いた。
論文 参考訳(メタデータ) (2023-01-18T15:39:21Z) - Reinforcement Learning in Education: A Multi-Armed Bandit Approach [12.358921226358133]
強化傾きは、エージェントが状態-作用-逆ループを通過し、エージェントに対する全体的な報酬を最大化する、教師なしの問題を解決する。
本研究の目的は,教育場面における介入勧告問題に対する環境内の累積報酬の文脈化とシミュレートである。
論文 参考訳(メタデータ) (2022-11-01T22:47:17Z) - Evolutionary Deep Reinforcement Learning Using Elite Buffer: A Novel
Approach Towards DRL Combined with EA in Continuous Control Tasks [0.0]
本研究の目的は、深層強化学習と進化計算の2つの分野を組み合わせることの効率性を検討することである。
Evolutionary Deep Reinforcement Learning Using Elite Buffer"アルゴリズムは、対話型学習能力と人間の脳における仮説的結果からインスピレーションを得て、新しいメカニズムを導入した。
実験結果によると,提案手法は複雑で次元の大きい環境において,他のよく知られた手法を超越している。
論文 参考訳(メタデータ) (2022-09-18T05:56:41Z) - Skill-based Meta-Reinforcement Learning [65.31995608339962]
本研究では,長期的スパース・リワードタスクにおけるメタラーニングを実現する手法を提案する。
私たちの中核となる考え方は、メタ学習中にオフラインデータセットから抽出された事前経験を活用することです。
論文 参考訳(メタデータ) (2022-04-25T17:58:19Z) - Discovering and Exploiting Sparse Rewards in a Learned Behavior Space [60.85923318884943]
スパース報酬設定における最適ポリシーの学習は、学習エージェントが行動の質に対するフィードバックをほとんど、あるいは全く持っていないため困難である。
STAXは, 与えられた報酬を効率的に最適化しつつ, 行動空間を学習し, 探索するために設計されたアルゴリズムである。
論文 参考訳(メタデータ) (2021-11-02T22:21:11Z) - Qualities, challenges and future of genetic algorithms: a literature
review [0.0]
遺伝的アルゴリズムは自然進化をシミュレートするコンピュータプログラムである。
ニューラルネットワークアーキテクチャ探索から戦略ゲームまで,さまざまな最適化問題の解決に使用されている。
GPU、並列コンピューティング、量子コンピューティングなどの最近の発展、強力なパラメータ制御法の概念、表現戦略における新しいアプローチは、それらの限界を克服するための鍵となるかもしれない。
論文 参考訳(メタデータ) (2020-11-05T17:53:33Z) - Importance Weighted Policy Learning and Adaptation [89.46467771037054]
政治外学習の最近の進歩の上に構築された,概念的にシンプルで,汎用的で,モジュール的な補完的アプローチについて検討する。
このフレームワークは確率論的推論文学のアイデアにインスパイアされ、堅牢な非政治学習と事前の行動を組み合わせる。
提案手法は,メタ強化学習ベースラインと比較して,ホールドアウトタスクにおける競合適応性能を実現し,複雑なスパース・リワードシナリオにスケールすることができる。
論文 参考訳(メタデータ) (2020-09-10T14:16:58Z) - Bridging the Imitation Gap by Adaptive Insubordination [88.35564081175642]
教官が特権情報にアクセスして意思決定を行う場合、この情報は模倣学習中に疎外されることを示す。
本稿では,このギャップに対処するため,適応的不規則化(ADVISOR)を提案する。
ADVISORは、トレーニング中の模倣と報酬に基づく強化学習損失を動的に重み付け、模倣と探索をオンザフライで切り替えることを可能にする。
論文 参考訳(メタデータ) (2020-07-23T17:59:57Z) - Neuro-evolutionary Frameworks for Generalized Learning Agents [1.2691047660244335]
近年のディープラーニングと深層強化学習の成功は、最先端の人工知能技術としての地位を確固たるものにしている。
これらのアプローチの長年の欠点は、そのようなシステムが設計され、デプロイされる方法を再考する必要性を示している。
このような神経進化の枠組みから期待される改善と関連する課題について論じる。
論文 参考訳(メタデータ) (2020-02-04T02:11:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。