論文の概要: Deep Reinforcement Learning for Stabilization of Large-scale
Probabilistic Boolean Networks
- arxiv url: http://arxiv.org/abs/2210.12229v1
- Date: Fri, 21 Oct 2022 20:15:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:43:00.913130
- Title: Deep Reinforcement Learning for Stabilization of Large-scale
Probabilistic Boolean Networks
- Title(参考訳): 大規模確率ブールネットワークの安定化のための深層強化学習
- Authors: Sotiris Moschoyiannis and Evangelos Chatzaroulas and Vytenis Sliogeris
and Yuhu Wu
- Abstract要約: Reinforcement Learning (RL) はマルコフ決定過程のような離散時間最適制御問題を解くフレームワークとして提案されている。
本稿では,モデルフリーの深部RL法をベースとした統合的フレームワークに焦点をあてる。
我々は200ノードの転移性黒色腫PBNを含む大規模ネットワークの制御に成功したことを実証した。
- 参考スコア(独自算出の注目度): 7.111443975103329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to direct a Probabilistic Boolean Network (PBN) to a desired
state is important to applications such as targeted therapeutics in cancer
biology. Reinforcement Learning (RL) has been proposed as a framework that
solves a discrete-time optimal control problem cast as a Markov Decision
Process. We focus on an integrative framework powered by a model-free deep RL
method that can address different flavours of the control problem (e.g., with
or without control inputs; attractor state or a subset of the state space as
the target domain). The method is agnostic to the distribution of probabilities
for the next state, hence it does not use the probability transition matrix.
The time complexity is linear on the time steps, or interactions between the
agent (deep RL) and the environment (PBN), during training. Indeed, we explore
the scalability of the deep RL approach to (set) stabilization of large-scale
PBNs and demonstrate successful control on large networks, including a
metastatic melanoma PBN with 200 nodes.
- Abstract(参考訳): 確率的ブールネットワーク(PBN)を望ましい状態に導く能力は、がん生物学における標的治療などの応用において重要である。
Reinforcement Learning (RL) はマルコフ決定過程のような離散時間最適制御問題を解くフレームワークとして提案されている。
本研究では,制御問題(例えば,制御入力の有無,アトラクタ状態あるいはターゲット領域としての状態空間のサブセット)の異なるフレーバーに対処できるモデルフリーディープRL法を利用した統合的フレームワークに焦点を当てる。
この方法は次の状態の確率分布に依存しないので、確率遷移行列は使用しない。
時間複雑性は、トレーニング中の時間ステップ、またはエージェント(ディープRL)と環境(PBN)の間の相互作用に線形である。
実際、大規模PBNの安定化(セット)に対する深部RLアプローチのスケーラビリティについて検討し、200ノードの転移性メラノーマPBNを含む大規模ネットワークの制御に成功したことを示す。
関連論文リスト
- Controlling nonergodicity in quantum many-body systems by reinforcement learning [0.0]
量子非エルゴディティ制御のためのモデルフリー・ディープ強化学習フレームワークを開発した。
我々は, DRLエージェントが量子多体系を効率的に学習できることを実証するために, パラダイム的一次元傾斜Fermi-Hubbardシステムを用いた。
連続制御プロトコルと観測は実験的に実現可能である。
論文 参考訳(メタデータ) (2024-08-21T20:55:44Z) - Joint Admission Control and Resource Allocation of Virtual Network Embedding via Hierarchical Deep Reinforcement Learning [69.00997996453842]
本稿では,仮想ネットワークの埋め込みにおいて,入出力制御と資源配分を併用して学習する深層強化学習手法を提案する。
HRL-ACRAは,受入率と長期平均収益の両面で,最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2024-06-25T07:42:30Z) - Dynamic Bayesian Network Auxiliary ABC-SMC for Hybrid Model Bayesian
Inference to Accelerate Biomanufacturing Process Mechanism Learning and
Robust Control [2.727760379582405]
本稿では,バイオプロセッシング機構の複雑な因果関係を特徴付ける知識グラフハイブリッドモデルを提案する。
非線形反応、部分的に観察された状態、非定常力学を含む重要な性質を忠実に捉えることができる。
我々は、メカニズム学習を容易にし、ロバストなプロセス制御を支援する後部分布モデルの不確かさを導出する。
論文 参考訳(メタデータ) (2022-05-05T02:54:21Z) - Deep Reinforcement Learning for Wireless Scheduling in Distributed Networked Control [37.10638636086814]
完全分散無線制御システム(WNCS)の周波数チャネル数に制限のある結合アップリンクとダウンリンクのスケジューリング問題を考える。
深層強化学習(DRL)に基づくフレームワークを開発した。
DRLにおける大きなアクション空間の課題に対処するために,新しいアクション空間削減法とアクション埋め込み法を提案する。
論文 参考訳(メタデータ) (2021-09-26T11:27:12Z) - Adaptive Stochastic ADMM for Decentralized Reinforcement Learning in
Edge Industrial IoT [106.83952081124195]
強化学習 (Reinforcement Learning, RL) は, 意思決定および最適制御プロセスのための有望な解法として広く研究されている。
本稿では,Adaptive ADMM (asI-ADMM)アルゴリズムを提案する。
実験の結果,提案アルゴリズムは通信コストやスケーラビリティの観点から技術状況よりも優れており,複雑なIoT環境に適応できることがわかった。
論文 参考訳(メタデータ) (2021-06-30T16:49:07Z) - Modular Deep Reinforcement Learning for Continuous Motion Planning with
Temporal Logic [59.94347858883343]
本稿では,マルコフ決定過程(MDP)をモデルとした自律動的システムの運動計画について検討する。
LDGBA と MDP の間に組込み製品 MDP (EP-MDP) を設計することである。
モデルフリー強化学習(RL)のためのLDGBAベースの報酬形成と割引スキームは、EP-MDP状態にのみ依存する。
論文 参考訳(メタデータ) (2021-02-24T01:11:25Z) - Proactive and AoI-aware Failure Recovery for Stateful NFV-enabled
Zero-Touch 6G Networks: Model-Free DRL Approach [0.0]
ゼロタッチPFR(ZT-PFR)と呼ばれるモデルフリー深部強化学習(DRL)に基づくアクティブ障害回復フレームワークを提案する。
ZT-PFRは、ネットワーク機能仮想化(NFV)対応ネットワークにおける組み込みステートフル仮想ネットワーク機能(VNF)用です。
論文 参考訳(メタデータ) (2021-02-02T21:40:35Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Robust Deep Reinforcement Learning against Adversarial Perturbations on
State Observations [88.94162416324505]
深部強化学習(DRL)エージェントは、自然な測定誤差や対向雑音を含む観測を通して、その状態を観察する。
観測は真の状態から逸脱するので、エージェントを誤解させ、準最適行動を起こすことができる。
本研究は, 従来の手法を, 対人訓練などの分類タスクの堅牢性向上に応用することは, 多くのRLタスクには有効でないことを示す。
論文 参考訳(メタデータ) (2020-03-19T17:59:59Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。