論文の概要: Deep Reinforcement Learning for Controlled Traversing of the Attractor
Landscape of Boolean Models in the Context of Cellular Reprogramming
- arxiv url: http://arxiv.org/abs/2402.08491v2
- Date: Tue, 20 Feb 2024 14:40:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 19:14:35.057639
- Title: Deep Reinforcement Learning for Controlled Traversing of the Attractor
Landscape of Boolean Models in the Context of Cellular Reprogramming
- Title(参考訳): セルプログラミングの文脈におけるブールモデルのトラクターランドスケープの制御されたトラバースのための深層強化学習
- Authors: Andrzej Mizera, Jakub Zarzycki
- Abstract要約: 我々は,再プログラミング戦略の同定を容易にする深層強化学習に基づく新しい計算フレームワークを開発する。
我々は,非同期更新モード下でのBNとPBNのフレームワークに対するセルリプログラミングの文脈における制御問題を定式化する。
また,擬似トラクタの概念と,訓練中に擬似トラクタの状態を特定する手順についても紹介する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cellular reprogramming can be used for both the prevention and cure of
different diseases. However, the efficiency of discovering reprogramming
strategies with classical wet-lab experiments is hindered by lengthy time
commitments and high costs. In this study, we develop a novel computational
framework based on deep reinforcement learning that facilitates the
identification of reprogramming strategies. For this aim, we formulate a
control problem in the context of cellular reprogramming for the frameworks of
BNs and PBNs under the asynchronous update mode. Furthermore, we introduce the
notion of a pseudo-attractor and a procedure for identification of
pseudo-attractor state during training. Finally, we devise a computational
framework for solving the control problem, which we test on a number of
different models.
- Abstract(参考訳): 細胞再プログラミングは、異なる疾患の予防と治療の両方に使用できる。
しかし、古典的なウェットラブ実験による再プログラミング戦略の発見効率は、長い時間的コミットメントと高いコストで妨げられている。
本研究では,再プログラミング戦略の特定を容易にする深層強化学習に基づく新しい計算フレームワークを開発した。
この目的のために,非同期更新モード下でのBNとPBNのフレームワークに対するセルリプログラミングの文脈における制御問題を定式化する。
さらに,擬似トラクタの概念と,訓練中に擬似トラクタの状態を特定する手順を導入する。
最後に,制御問題を解くための計算フレームワークを考案し,様々なモデルを用いてテストを行った。
関連論文リスト
- Self-STORM: Deep Unrolled Self-Supervised Learning for Super-Resolution Microscopy [55.2480439325792]
我々は、シーケンス固有のモデルベースのオートエンコーダをトレーニングすることで、そのようなデータの必要性を軽減する、深層無学習の自己教師付き学習を導入する。
提案手法は, 監視対象の性能を超過する。
論文 参考訳(メタデータ) (2024-03-25T17:40:32Z) - Model-Based Reinforcement Learning Control of Reaction-Diffusion
Problems [0.0]
強化学習はいくつかのアプリケーション、特にゲームにおいて意思決定に応用されている。
輸送されたフィールドの流れを駆動する2つの新しい報酬関数を導入する。
その結果、これらのアプリケーションで特定の制御をうまく実装できることが判明した。
論文 参考訳(メタデータ) (2024-02-22T11:06:07Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Accelerated Policy Learning with Parallel Differentiable Simulation [59.665651562534755]
微分可能シミュレータと新しいポリシー学習アルゴリズム(SHAC)を提案する。
本アルゴリズムは,スムーズな批判機能により局所最小化の問題を軽減する。
現状のRLと微分可能なシミュレーションベースアルゴリズムと比較して,サンプル効率と壁面時間を大幅に改善した。
論文 参考訳(メタデータ) (2022-04-14T17:46:26Z) - Learning Algorithms for Regenerative Stopping Problems with Applications
to Shipping Consolidation in Logistics [8.111251824291244]
制御器が停止し、長期平均コストを最小限に抑えると、システムが再起動する再生停止問題について検討する。
従来のモデルベースのソリューションは、推定モデルのためのデータとコンピューティング戦略から基礎となるプロセスを推定する。
シミュレーションからニューラルネットワークのポリシーを学習する深層強化学習と模擬学習とを比較します。
論文 参考訳(メタデータ) (2021-05-05T20:45:46Z) - A Regret Minimization Approach to Iterative Learning Control [61.37088759497583]
我々は、標準的な不確実性の仮定を最悪の場合の後悔に置き換える新しいパフォーマンスメトリック、計画後悔を提案します。
提案アルゴリズムがいくつかのベンチマークで既存の手法よりも優れているという理論的および実証的な証拠を提供します。
論文 参考訳(メタデータ) (2021-02-26T13:48:49Z) - Continuous-Time Model-Based Reinforcement Learning [4.427447378048202]
本稿では,新しいアクター・クリティック手法に基づく連続時間MBRLフレームワークを提案する。
我々は、連続時間制御システムを明確に解決する新しいODE-RLスイート上で、本手法を実装し、テストする。
論文 参考訳(メタデータ) (2021-02-09T11:30:19Z) - Deep RL With Information Constrained Policies: Generalization in
Continuous Control [21.46148507577606]
情報フローに対する自然な制約は, 連続制御タスクにおいて, 人工エージェントに干渉する可能性があることを示す。
CLAC(Capacity-Limited Actor-Critic)アルゴリズムを実装した。
実験の結果、CLACは代替手法と比較して、トレーニング環境と修正テスト環境の一般化に改善をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-10-09T15:42:21Z) - Managing caching strategies for stream reasoning with reinforcement
learning [18.998260813058305]
ストリーム推論は、継続的なデータ変更よりも効率的な意思決定を可能にする。
我々は、衝突駆動制約学習(CDCL)を用いてレガシーソリューションを効率的に更新する新しいアプローチを提案する。
特に,強化学習の適用性について検討し,学習制約の有用性を継続的に評価する。
論文 参考訳(メタデータ) (2020-08-07T15:01:41Z) - Control as Hybrid Inference [62.997667081978825]
本稿では、反復推論と償却推論のバランスを自然に仲介するCHIの実装について述べる。
連続的な制御ベンチマークでアルゴリズムのスケーラビリティを検証し、強力なモデルフリーおよびモデルベースラインを上回る性能を示す。
論文 参考訳(メタデータ) (2020-07-11T19:44:09Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。