論文の概要: Chemotaxis of sea urchin sperm cells through deep reinforcement learning
- arxiv url: http://arxiv.org/abs/2209.07407v1
- Date: Tue, 2 Aug 2022 06:04:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 14:12:20.030912
- Title: Chemotaxis of sea urchin sperm cells through deep reinforcement learning
- Title(参考訳): 深部強化学習によるウニ精子細胞の遊走性
- Authors: Chaojie Mo and Xin Bian
- Abstract要約: 本研究では, ウニ精子のモデルが, ケモアトレラント濃度場において, 自己学習型遊走運動をいかに行うかを検討する。
我々は,人工ニューラルネットワークを用いて意思決定エージェントとして機能し,精子の効率的な操作戦略の発見を容易にする。
以上の結果から,ウニ精子の遊走過程に関する知見が得られ,微生物の知能的操作のためのガイダンスも用意された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: By imitating biological microswimmers, microrobots can be designed to
accomplish targeted delivery of cargos and biomedical manipulations at
microscale. However, it is still a great challenge to enable microrobots to
maneuver in a complex environment. Machine learning algorithms offer a tool to
boost mobility and flexibility of a synthetic microswimmer, hence could help us
design truly smart microrobots. In this work, we investigate how a model of sea
urchin sperm cell can self-learn chemotactic motion in a chemoattractant
concentration field. We employ an artificial neural network to act as a
decision-making agent and facilitate the sperm cell to discover efficient
maneuver strategies through a deep reinforcement learning (DRL) algorithm. Our
results show that chemotactic behaviours, very similar to the realistic ones,
can be achieved by the DRL utilizing only limited environmental information. In
most cases, the DRL algorithm discovers more efficient strategies than the
human-devised one. Furthermore, the DRL can even utilize an external
disturbance to facilitate the chemotactic motion if the extra flow information
is also taken into account by the artificial neural network. Our results
provide insights to the chemotactic process of sea urchin sperm cells and also
prepare guidance for the intelligent maneuver of microrobots.
- Abstract(参考訳): 生体マイクロスウィマーを模倣することにより、マイクロロボットはマイクロスケールでの貨物の輸送や生物医学的な操作を目標とするように設計されている。
しかし、マイクロロボットを複雑な環境で動作させることは依然として大きな課題である。
機械学習アルゴリズムは、合成マイクロスウィマーのモビリティと柔軟性を高めるツールを提供するので、本当にスマートなマイクロロボットを設計するのに役立ちます。
本研究では, ウニ精子のモデルが, ケモアトレラント濃度場において, 自己学習型遊走運動をいかに行うかを検討する。
我々は人工ニューラルネットワークを用いて意思決定エージェントとして機能し、精子細胞に深層強化学習(DRL)アルゴリズムによる効率的な操作戦略の発見を促す。
本研究は, 環境情報のみを利用して, DRLにより, 現実的な行動と非常によく似た行動が実現できることを示す。
ほとんどの場合、DRLアルゴリズムは人間よりも効率的な戦略を発見する。
さらに、DRLは、人工ニューラルネットワークによって余分なフロー情報も考慮すれば、外乱を利用して遊走運動を促進することもできる。
本研究はウニ精子細胞の遊走過程に関する知見を提供し,マイクロロボットのインテリジェントな操作のためのガイダンスも提供する。
関連論文リスト
- Simulation of Nanorobots with Artificial Intelligence and Reinforcement Learning for Advanced Cancer Cell Detection and Tracking [0.0]
本研究では,複雑な環境下でのナノロボットナビゲーションを最適化するための新しい強化学習フレームワークを提案する。
計算機シミュレーションモデルを用いて,癌細胞と生物学的障壁を有する三次元空間におけるナノロボットの挙動を探索する。
提案手法はQラーニングを用いてリアルタイムバイオマーカー濃度データに基づいて運動戦略を洗練し,ナノロボットが標的とする薬物のデリバリーのために癌組織への自律移動を可能にする。
論文 参考訳(メタデータ) (2024-11-04T18:16:40Z) - Navigation of micro-robot swarms for targeted delivery using
reinforcement learning [0.0]
Inforcement Learning (RL) アルゴリズムをPPO(Proximal Policy Optimization) とRPO(Robust Policy Optimization) を用いて,4,9,16マイクロスウィマーの群を探索する。
PPOとRPOの両方のパフォーマンスを、限られた状態情報シナリオで調べ、また、ランダムな目標位置とサイズに対するロバスト性をテストする。
論文 参考訳(メタデータ) (2023-06-30T12:17:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Robotic Navigation Autonomy for Subretinal Injection via Intelligent
Real-Time Virtual iOCT Volume Slicing [88.99939660183881]
網膜下注射のための自律型ロボットナビゲーションの枠組みを提案する。
提案手法は,機器のポーズ推定方法,ロボットとi OCTシステム間のオンライン登録,およびインジェクションターゲットへのナビゲーションに適した軌道計画から構成される。
ブタ前眼の精度と再現性について実験を行った。
論文 参考訳(メタデータ) (2023-01-17T21:41:21Z) - Programmable Control of Ultrasound Swarmbots through Reinforcement
Learning [0.0]
マイクロバブルをベースとした音響駆動型マイクロロボットナビゲーションは、薬物の配送を狙う上で有望なアプローチである。
我々は、強化学習制御戦略を用いて、マイクロロボットの力学を学習し、音響力で操作する。
その結果,マイクロ流体環境下でのマイクロバブルの自律的音響ナビゲーションが実証された。
論文 参考訳(メタデータ) (2022-09-30T11:46:12Z) - Active Predicting Coding: Brain-Inspired Reinforcement Learning for
Sparse Reward Robotic Control Problems [79.07468367923619]
ニューラルジェネレーティブ・コーディング(NGC)の神経認知計算フレームワークによるロボット制御へのバックプロパゲーションフリーアプローチを提案する。
我々は、スパース報酬から動的オンライン学習を容易にする強力な予測符号化/処理回路から完全に構築されたエージェントを設計する。
提案するActPCエージェントは,スパース(外部)報酬信号に対して良好に動作し,複数の強力なバックプロップベースのRLアプローチと競合し,性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-09-19T16:49:32Z) - Smart Magnetic Microrobots Learn to Swim with Deep Reinforcement
Learning [0.0]
深層強化学習は、スマートなマイクロロボットを作るための堅牢なコントローラを自律的に開発するための有望な方法である。
本稿では,ソフトアクター評論家強化学習アルゴリズムを用いて制御ポリシを自律的に導出するスマートヘリカル磁性ハイドロゲルマイクロロボットの開発について報告する。
強化学習エージェントは10万歩未満のトレーニングステップで制御ポリシを成功させ、高速学習のためのサンプル効率を実証した。
論文 参考訳(メタデータ) (2022-01-14T18:42:18Z) - SurRoL: An Open-source Reinforcement Learning Centered and dVRK
Compatible Platform for Surgical Robot Learning [78.76052604441519]
SurRoLは、ダ・ヴィンチ・リサーチキット(dVRK)と互換性のある外科ロボット学習のためのRL中心のシミュレーションプラットフォームである。
プラットフォームには10の学習ベースの外科的タスクが構築されており、実際の自律的な外科的実行に共通している。
シミュレーションにおいてRLアルゴリズムを用いてSurRoLの評価を行い、奥行き分析を行い、実際のdVRKにトレーニングされたポリシーをデプロイし、実世界でより優れた転送性を実現することを示す。
論文 参考訳(メタデータ) (2021-08-30T07:43:47Z) - Autonomous object harvesting using synchronized optoelectronic
microrobots [10.860767733334306]
optoelectronic tweezer-driven microrobots (oetdms)は多用途のマイクロマニピュレーション技術である。
複数のマイクロロボットのオープンループ制御を実現するために,自動的ターゲティングと経路計画手法を提案する。
論文 参考訳(メタデータ) (2021-03-08T17:24:15Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Towards an Automatic Analysis of CHO-K1 Suspension Growth in
Microfluidic Single-cell Cultivation [63.94623495501023]
我々は、人間の力で抽象化されたニューラルネットワークをデータレベルで注入できる新しい機械学習アーキテクチャを提案する。
具体的には、自然データと合成データに基づいて生成モデルを同時に訓練し、細胞数などの対象変数を確実に推定できる共有表現を学習する。
論文 参考訳(メタデータ) (2020-10-20T08:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。