論文の概要: Monitoring Fidelity of Online Reinforcement Learning Algorithms in Clinical Trials
- arxiv url: http://arxiv.org/abs/2402.17003v2
- Date: Mon, 12 Aug 2024 16:56:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-13 23:57:57.437946
- Title: Monitoring Fidelity of Online Reinforcement Learning Algorithms in Clinical Trials
- Title(参考訳): 臨床試験におけるオンライン強化学習アルゴリズムの忠実度モニタリング
- Authors: Anna L. Trella, Kelly W. Zhang, Inbal Nahum-Shani, Vivek Shetty, Iris Yan, Finale Doshi-Velez, Susan A. Murphy,
- Abstract要約: 本稿では,オンラインRLアルゴリズムを臨床試験に導入するための重要な要件として,アルゴリズムの忠実性を提案する。
我々は,アルゴリズム開発者や臨床研究者がアルゴリズムの忠実性を確保するのに役立つ,事前デプロイ計画とリアルタイムモニタリングのためのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.944037982124037
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online reinforcement learning (RL) algorithms offer great potential for personalizing treatment for participants in clinical trials. However, deploying an online, autonomous algorithm in the high-stakes healthcare setting makes quality control and data quality especially difficult to achieve. This paper proposes algorithm fidelity as a critical requirement for deploying online RL algorithms in clinical trials. It emphasizes the responsibility of the algorithm to (1) safeguard participants and (2) preserve the scientific utility of the data for post-trial analyses. We also present a framework for pre-deployment planning and real-time monitoring to help algorithm developers and clinical researchers ensure algorithm fidelity. To illustrate our framework's practical application, we present real-world examples from the Oralytics clinical trial. Since Spring 2023, this trial successfully deployed an autonomous, online RL algorithm to personalize behavioral interventions for participants at risk for dental disease.
- Abstract(参考訳): オンライン強化学習(RL)アルゴリズムは、臨床試験参加者に対するパーソナライズ治療に大きな可能性を秘めている。
しかし、オンラインで自律的なアルゴリズムをハイテイクな医療環境に配置することは、品質管理とデータ品質を特に困難にしている。
本稿では,オンラインRLアルゴリズムを臨床試験に導入するための重要な要件として,アルゴリズムの忠実性を提案する。
本研究は,(1) 参加者を保護し,(2) 裁判後分析におけるデータの科学的有用性を維持するためのアルゴリズムの責務を強調している。
我々はまた、アルゴリズム開発者や臨床研究者がアルゴリズムの忠実性を確保するのに役立つ、事前デプロイ計画とリアルタイムモニタリングのためのフレームワークも提示する。
本フレームワークの実用的応用を説明するために,Oralytics 臨床試験から実例を提示する。
2023年春以降、この試行は、歯科疾患のリスクがある参加者に対する行動介入をパーソナライズするために、自律的なオンラインRLアルゴリズムをうまく展開した。
関連論文リスト
- A Deployed Online Reinforcement Learning Algorithm In An Oral Health Clinical Trial [20.944037982124037]
歯科疾患は、実質的な財政的負担、個人的苦痛、全身疾患のリスクの増加を伴う慢性疾患である。
毎日2回歯磨きを推奨しているにもかかわらず、忘れやすさや解離などの要因により、推奨された口腔セルフケア行動への固執は依然として最適ではない。
歯科疾患のリスクを負う医療従事者の予防ケアを補完する医療介入システムOralyticsを開発した。
論文 参考訳(メタデータ) (2024-09-03T17:16:01Z) - Effective Monitoring of Online Decision-Making Algorithms in Digital Intervention Implementation [18.712461287884917]
本稿では,オンライン意思決定アルゴリズムを効果的に監視するためのガイドラインを提供する。
本稿では,2つのデジタル介入臨床試験におけるオンライン意思決定アルゴリズムのモニタリング経験について論じる。
論文 参考訳(メタデータ) (2024-08-30T15:13:58Z) - Oralytics Reinforcement Learning Algorithm [5.54328512723076]
歯科疾患はアメリカ合衆国で最も一般的な慢性疾患の1つである。
パーソナライズされた介入プロンプトのデリバリを最適化し,口腔セルフケア(OSCB)を改善するオンライン強化学習(RL)アルゴリズムであるOralyticsを開発した。
最終RLアルゴリズムは、2023年秋から2024年夏にかけて行われたOralytics臨床試験で展開された。
論文 参考訳(メタデータ) (2024-06-19T00:44:11Z) - Provably Efficient Iterated CVaR Reinforcement Learning with Function
Approximation and Human Feedback [57.6775169085215]
リスクに敏感な強化学習は、期待される報酬とリスクのバランスをとるポリシーを最適化することを目的としている。
本稿では,線形および一般関数近似の下で,CVaR(Iterated Conditional Value-at-Risk)を目標とする新しいフレームワークを提案する。
本稿では,この反復CVaR RLに対するサンプル効率の高いアルゴリズムを提案し,厳密な理論的解析を行う。
論文 参考訳(メタデータ) (2023-07-06T08:14:54Z) - PyTrial: Machine Learning Software and Benchmark for Clinical Trial
Applications [49.69824178329405]
PyTrialは、臨床試験の設計と運用のための一連の機械学習アルゴリズムのベンチマークとオープンソース実装を提供する。
患者結果予測,臨床試験サイト選択,トライアル結果予測,患者と臨床のマッチング,トライアル類似性検索,合成データ生成など,6つのタスクにわたる臨床試験のための34のMLアルゴリズムを網羅的に検討した。
PyTrialは、データローディング、モデル仕様、モデルトレーニング、モデル評価という、単純な4段階のプロセスで各タスクを定義します。
論文 参考訳(メタデータ) (2023-06-06T21:19:03Z) - Did we personalize? Assessing personalization by an online reinforcement
learning algorithm using resampling [9.745543921550748]
強化学習(Reinforcement Learning, RL)は、デジタルヘルスにおける治療のシーケンスをパーソナライズし、ユーザーがより健康的な行動を採用するのを支援するために用いられる。
オンラインRLは、各ユーザの履歴応答に基づいて学習するので、この問題に対して有望なデータ駆動型アプローチである。
我々は,RLアルゴリズムが実世界の展開に最適化された介入に含まれるべきかどうかを評価する。
論文 参考訳(メタデータ) (2023-04-11T17:20:37Z) - Automated Fidelity Assessment for Strategy Training in Inpatient
Rehabilitation using Natural Language Processing [53.096237570992294]
戦略トレーニング (Strategy Training) とは、脳卒中後の認知障害患者に障害を減らすためのスキルを教える、リハビリテーションのアプローチである。
標準化された忠実度評価は治療原則の遵守度を測定するために用いられる。
本研究では,ルールベースNLPアルゴリズム,長短項メモリ(LSTM)モデル,および変換器(BERT)モデルからの双方向エンコーダ表現を開発した。
論文 参考訳(メタデータ) (2022-09-14T15:33:30Z) - Federated Offline Reinforcement Learning [55.326673977320574]
マルチサイトマルコフ決定プロセスモデルを提案する。
我々は,オフラインRLを対象とした最初のフェデレーション最適化アルゴリズムを設計する。
提案アルゴリズムでは,学習ポリシーの準最適性は,データが分散していないような速度に匹敵する,理論的保証を与える。
論文 参考訳(メタデータ) (2022-06-11T18:03:26Z) - Designing Reinforcement Learning Algorithms for Digital Interventions:
Pre-implementation Guidelines [24.283342018185028]
オンライン強化学習アルゴリズムは、モバイル健康とオンライン教育の分野におけるデジタル介入のパーソナライズにますます利用されている。
これらの設定でRLアルゴリズムを設計およびテストする際の一般的な課題は、RLアルゴリズムがリアルタイム制約下で安定して学習および実行できることである。
私たちは、機械学習のベストプラクティスと教師あり学習の統計を取り入れたデータサイエンスフレームワークであるPCS(Predictability, Computability, Stability)フレームワークを拡張します。
論文 参考訳(メタデータ) (2022-06-08T15:05:28Z) - Auto-FedRL: Federated Hyperparameter Optimization for
Multi-institutional Medical Image Segmentation [48.821062916381685]
Federated Learning(FL)は、明示的なデータ共有を避けながら協調的なモデルトレーニングを可能にする分散機械学習技術である。
本稿では,Auto-FedRLと呼ばれる,効率的な強化学習(RL)に基づくフェデレーションハイパーパラメータ最適化アルゴリズムを提案する。
提案手法の有効性は,CIFAR-10データセットと2つの実世界の医用画像セグメンテーションデータセットの不均一なデータ分割に対して検証される。
論文 参考訳(メタデータ) (2022-03-12T04:11:42Z) - Personalized Rehabilitation Robotics based on Online Learning Control [62.6606062732021]
本稿では,各ユーザに対して実行時の制御力をパーソナライズ可能な,新しいオンライン学習制御アーキテクチャを提案する。
提案手法を,学習コントローラがパーソナライズされた制御を提供するとともに,安全な相互作用力も得られる実験ユーザスタディで評価した。
論文 参考訳(メタデータ) (2021-10-01T15:28:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。