論文の概要: Reinforcement learning of optimal active particle navigation
- arxiv url: http://arxiv.org/abs/2202.00812v1
- Date: Tue, 1 Feb 2022 23:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 15:19:09.907505
- Title: Reinforcement learning of optimal active particle navigation
- Title(参考訳): 最適アクティブ粒子ナビゲーションの強化学習
- Authors: Mahdi Nasiri, Benno Liebchen
- Abstract要約: 我々は、自己推進エージェントの勾配最適経路を決定できる機械学習ベースのアプローチを開発した。
本手法は,政策に基づく深層学習強化技術に頼り,報酬形成や計算を一切必要としない。
提案手法は,現在の解析手法に代わる強力な代替手段を提供し,将来のインテリジェント粒子のためのユニバーサルパスプランナーへの道を開く。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of self-propelled particles at the micro- and the nanoscale
has sparked a huge potential for future applications in active matter physics,
microsurgery, and targeted drug delivery. However, while the latter
applications provoke the quest on how to optimally navigate towards a target,
such as e.g. a cancer cell, there is still no simple way known to determine the
optimal route in sufficiently complex environments. Here we develop a machine
learning-based approach that allows us, for the first time, to determine the
asymptotically optimal path of a self-propelled agent which can freely steer in
complex environments. Our method hinges on policy gradient-based deep
reinforcement learning techniques and, crucially, does not require any reward
shaping or heuristics. The presented method provides a powerful alternative to
current analytical methods to calculate optimal trajectories and opens a route
towards a universal path planner for future intelligent active particles.
- Abstract(参考訳): マイクロスケールとナノスケールでの自己推進粒子の開発は、能動物質物理学、マイクロサージリー、標的薬のデリバリーにおける将来の応用に大きな可能性をもたらした。
しかし、後者の応用は、例えばがん細胞のような標的に向かって最適に移動する方法の探求を引き起こすが、十分に複雑な環境で最適な経路を決定するための簡単な方法はまだ存在しない。
ここでは,複雑な環境で自由に操縦できる自己推進剤の漸近的最適経路を初めて決定できる機械学習ベースの手法を開発した。
本手法は,政策勾配に基づく深層強化学習技術に依存しており,特に報酬形成やヒューリスティックスを必要としない。
提案手法は, 最適軌道を求める現在の解析手法に代わる強力な代替手段を提供し, 将来の知的粒子のためのユニバーサルパスプランナーへの道を開く。
関連論文リスト
- Reparameterized Policy Learning for Multimodal Trajectory Optimization [61.13228961771765]
本研究では,高次元連続行動空間における強化学習のためのパラメータ化政策の課題について検討する。
本稿では,連続RLポリシーを最適軌道の生成モデルとしてモデル化する原理的フレームワークを提案する。
本稿では,マルチモーダルポリシーパラメータ化と学習世界モデルを活用した実用的モデルベースRL手法を提案する。
論文 参考訳(メタデータ) (2023-07-20T09:05:46Z) - Ada-NAV: Adaptive Trajectory-Based Sample Efficient Policy Learning for
Robotic Navigation [75.36145696421038]
Ada-NAVは、ロボットナビゲーションタスクにおける強化学習アルゴリズムのトレーニングサンプル効率を高めるために設計された新しい適応軌道長スキームである。
我々は、Ada-NAVが一定またはランダムにサンプリングされた軌道長を用いる従来の手法よりも優れているというシミュレーションと実世界のロボット実験を通して実証する。
論文 参考訳(メタデータ) (2023-06-09T18:45:15Z) - Optimal active particle navigation meets machine learning [0.0]
コロイドの昆虫や微生物、未来のロボットといった「スマート」な活性物質は、複雑な環境下で、匂い源や食物、がん細胞などの標的に最適な到達や発見を行う必要がある。
本稿では,マイクロからマクロまで,このような最適ナビゲーション問題に関する最近の展開の概要を紹介する。
論文 参考訳(メタデータ) (2023-03-09T19:48:03Z) - Quasi-optimal Reinforcement Learning with Continuous Actions [8.17049210746654]
そこで我々は,非政治環境において容易に最適化できる,新しいEmphquasi-Optimal Learningアルゴリズムを開発した。
本アルゴリズムを網羅的なシミュレーション実験により評価し,オハイオ1型糖尿病データセットへの線量提案実例を適用した。
論文 参考訳(メタデータ) (2023-01-21T11:30:13Z) - Exploration via Planning for Information about the Optimal Trajectory [67.33886176127578]
我々は,タスクと現在の知識を考慮に入れながら,探索を計画できる手法を開発した。
本手法は, 探索基準値よりも2倍少ないサンプルで, 強いポリシーを学習できることを実証する。
論文 参考訳(メタデータ) (2022-10-06T20:28:55Z) - Online reinforcement learning with sparse rewards through an active
inference capsule [62.997667081978825]
本稿では,将来期待される新しい自由エネルギーを最小化するアクティブ推論エージェントを提案する。
我々のモデルは、非常に高いサンプル効率でスパース・リワード問題を解くことができる。
また、複雑な目的の表現を単純化する報奨関数から事前モデルを近似する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T10:03:36Z) - Autonomous Drone Racing with Deep Reinforcement Learning [39.757652701917166]
ドローンレースのような多くのロボットタスクにおいて、ゴールはできるだけ速くコースポイントを移動することである。
重要な課題は、事前に通過するウェイポイントの完全な知識を想定して解決される最小時間軌道を計画することです。
本研究では,クワッドロータの最小時間軌道生成法を提案する。
論文 参考訳(メタデータ) (2021-03-15T18:05:49Z) - Path Planning Followed by Kinodynamic Smoothing for Multirotor Aerial
Vehicles (MAVs) [61.94975011711275]
そこで本稿では,RRT*textquotedblrightのテキストを幾何学的にベースとした動き計画手法を提案する。
提案手法では,適応探索空間とステアリング機能を導入したオリジナルのRT*を改良した。
提案手法を様々なシミュレーション環境で検証した。
論文 参考訳(メタデータ) (2020-08-29T09:55:49Z) - Localized active learning of Gaussian process state space models [63.97366815968177]
多くの共通制御アプリケーションにおいて、優れた性能を達成するためには、グローバルに正確なモデルを必要としない。
本稿では,状態-作用空間の有界部分集合上の正確なモデルを得ることを目的としたガウス過程状態空間モデルに対する能動的学習戦略を提案する。
モデル予測制御を用いることで、探索中に収集した情報を統合し、探索戦略を適応的に改善する。
論文 参考訳(メタデータ) (2020-05-04T05:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。