論文の概要: An Explainable Deep Reinforcement Learning Model for Warfarin Maintenance Dosing Using Policy Distillation and Action Forging
- arxiv url: http://arxiv.org/abs/2404.17187v1
- Date: Fri, 26 Apr 2024 06:44:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-29 13:54:01.449838
- Title: An Explainable Deep Reinforcement Learning Model for Warfarin Maintenance Dosing Using Policy Distillation and Action Forging
- Title(参考訳): 政策蒸留と行動鍛造を用いたウォーファリン維持用深部強化学習モデル
- Authors: Sadjad Anzabi Zadeh, W. Nick Street, Barrett W. Thomas,
- Abstract要約: 本稿では, 政策蒸留を併用した近似的政策最適化手法を用いて, ワーファリンのドスティングプロトコルを提案する。
その結果、最終モデルは現在のドスプロトコルと同じくらい理解し、デプロイしやすく、ベースラインドスアルゴリズムよりも優れています。
- 参考スコア(独自算出の注目度): 0.294944680995069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Reinforcement Learning is an effective tool for drug dosing for chronic condition management. However, the final protocol is generally a black box without any justification for its prescribed doses. This paper addresses this issue by proposing an explainable dosing protocol for warfarin using a Proximal Policy Optimization method combined with Policy Distillation. We introduce Action Forging as an effective tool to achieve explainability. Our focus is on the maintenance dosing protocol. Results show that the final model is as easy to understand and deploy as the current dosing protocols and outperforms the baseline dosing algorithms.
- Abstract(参考訳): 深層強化学習(Deep Reinforcement Learning)は、慢性的な状態管理に有効な薬物投与ツールである。
しかしながら、最終プロトコルは一般的に、その所定の用量に対する正当化のないブラックボックスである。
本稿では, 政策蒸留と組み合わせた政策最適化手法を用いて, ワーファリン用ドスプロトコルの提案により, この問題に対処する。
本稿では、説明可能性を達成するための効果的なツールとしてAction Forgingを紹介します。
私たちの焦点はメンテナンス・ドス・プロトコルにあります。
その結果、最終モデルは現在のドスプロトコルと同じくらい理解し、デプロイしやすく、ベースラインドスアルゴリズムよりも優れています。
関連論文リスト
- Classifier Guidance Enhances Diffusion-based Adversarial Purification by Preserving Predictive Information [75.36597470578724]
敵の浄化は、敵の攻撃からニューラルネットワークを守るための有望なアプローチの1つである。
分類器決定境界から遠ざかって, 清浄するgUided Purification (COUP)アルゴリズムを提案する。
実験結果から, COUPは強力な攻撃法でより優れた対向的堅牢性が得られることが示された。
論文 参考訳(メタデータ) (2024-08-12T02:48:00Z) - A Novel Stabilizer-based Entanglement Distillation Protocol for Qudits [0.016385815610837167]
エンタングルメント蒸留は、エラー発生環境における堅牢な量子情報処理に重要である。
安定化器符号に基づく構築は、そのようなプロトコルを設計するための効果的な方法を提供する。
本稿では,任意の素次元のベル対角線状態に対する繰り返し毎の忠実度増加を最大化する新しい2コピー蒸留プロトコルを提案する。
論文 参考訳(メタデータ) (2024-08-05T11:14:28Z) - Learning Optimal Deterministic Policies with Stochastic Policy Gradients [62.81324245896716]
政策勾配法(PG法)は連続強化学習(RL法)問題に対処する手法として成功している。
一般的には、収束(ハイパー)政治は、決定論的バージョンをデプロイするためにのみ学習される。
本稿では,サンプルの複雑性とデプロイされた決定論的ポリシのパフォーマンスのトレードオフを最適化するために,学習に使用する探索レベルの調整方法を示す。
論文 参考訳(メタデータ) (2024-05-03T16:45:15Z) - Optimizing Warfarin Dosing Using Contextual Bandit: An Offline Policy
Learning and Evaluation Method [2.8806234438838256]
抗凝固薬であるワーファリンは、異常な血液凝固に関連する疾患を予防し、対処するために配合される。
個々の反応の変化によって適切な服薬を見つけることは依然として困難であり、誤った服薬を処方することは深刻な結果をもたらす可能性がある。
最適な個人用服用戦略を決定するために,文脈的包帯と強化学習を用いた。
論文 参考訳(メタデータ) (2024-02-16T23:13:05Z) - Efficient entanglement purification based on noise guessing decoding [0.0]
本稿では,ランダム付加雑音復号法(GRAND)のハッシュ化と推定に基づく新しい二部分絡除去プロトコルを提案する。
我々のプロトコルは、既存のハッシュプロトコルに対して大きな利点を提供し、浄化のためにキュービットを少なくし、高い忠実性を実現し、計算コストを削減してより良い利得を提供する。
論文 参考訳(メタデータ) (2023-10-30T18:28:09Z) - Enhancing Exfiltration Path Analysis Using Reinforcement Learning [7.112500486473225]
この作業は、プロトコルとペイロードを考慮した方法論を拡張します。
生成されたパスは、通信ペイロードとプロトコルをMarkov決定プロセスに含めることで強化される。
論文 参考訳(メタデータ) (2023-10-05T16:43:12Z) - On Practical Aspects of Aggregation Defenses against Data Poisoning
Attacks [58.718697580177356]
悪意のあるトレーニングサンプルを持つディープラーニングモデルに対する攻撃は、データ中毒として知られている。
データ中毒に対する防衛戦略の最近の進歩は、認証された毒性の堅牢性を達成するためのアグリゲーション・スキームの有効性を強調している。
ここでは、Deep Partition Aggregation(ディープ・パーティション・アグリゲーション・アグリゲーション)、代表的アグリゲーション・ディフェンス(アグリゲーション・ディフェンス)に焦点を当て、効率、性能、堅牢性など、その実践的側面を評価する。
論文 参考訳(メタデータ) (2023-06-28T17:59:35Z) - SSM-DTA: Breaking the Barriers of Data Scarcity in Drug-Target Affinity
Prediction [127.43571146741984]
薬物標的親和性(DTA)は、早期の薬物発見において極めて重要である。
湿式実験は依然として最も信頼性の高い方法であるが、時間と資源が集中している。
既存の手法は主に、データ不足の問題に適切に対処することなく、利用可能なDTAデータに基づく技術開発に重点を置いている。
SSM-DTAフレームワークについて述べる。
論文 参考訳(メタデータ) (2022-06-20T14:53:25Z) - Optimizing Warfarin Dosing using Deep Reinforcement Learning [0.0]
ワーファリンは広く用いられる抗凝固剤であり、治療範囲は狭い。
現在のワーファリン投与プロトコルは、特にワーファリンに敏感な患者には期待に届かない。
ウォーファリンの深層強化学習に基づく投薬モデルを提案する。
論文 参考訳(メタデータ) (2022-02-07T19:58:54Z) - Provable Benefits of Actor-Critic Methods for Offline Reinforcement
Learning [85.50033812217254]
アクター批判法はオフラインの強化学習に広く用いられているが、理論的にはそれほどよく理解されていない。
ペシミズムの原理を自然に取り入れた新しいオフラインアクター批判アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-19T17:27:29Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。