論文の概要: Diffusion Policies with Offline and Inverse Reinforcement Learning for Promoting Physical Activity in Older Adults Using Wearable Sensors
- arxiv url: http://arxiv.org/abs/2509.18433v1
- Date: Mon, 22 Sep 2025 21:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.594797
- Title: Diffusion Policies with Offline and Inverse Reinforcement Learning for Promoting Physical Activity in Older Adults Using Wearable Sensors
- Title(参考訳): ウェアラブルセンサを用いた高齢者の身体活動促進のためのオフライン・逆強化学習による拡散政策
- Authors: Chang Liu, Ladda Thiamwong, Yanjie Fu, Rui Xie,
- Abstract要約: 実世界の臨床データを持つオフライン強化学習(RL)は、医療のためのAIにおいて注目を集めている。
オフライン逆強化学習(KANDI)のためのコルモゴロフ・アルノルドネットワークと拡散政策について紹介する。
本研究では,Physory-feedback Exercise Program (PEER) を用いた2本腕臨床試験において,ウェアラブル活動モニタリングデータを用いたKADIの評価を行った。
- 参考スコア(独自算出の注目度): 22.781709642461564
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilizing offline reinforcement learning (RL) with real-world clinical data is getting increasing attention in AI for healthcare. However, implementation poses significant challenges. Defining direct rewards is difficult, and inverse RL (IRL) struggles to infer accurate reward functions from expert behavior in complex environments. Offline RL also encounters challenges in aligning learned policies with observed human behavior in healthcare applications. To address challenges in applying offline RL to physical activity promotion for older adults at high risk of falls, based on wearable sensor activity monitoring, we introduce Kolmogorov-Arnold Networks and Diffusion Policies for Offline Inverse Reinforcement Learning (KANDI). By leveraging the flexible function approximation in Kolmogorov-Arnold Networks, we estimate reward functions by learning free-living environment behavior from low-fall-risk older adults (experts), while diffusion-based policies within an Actor-Critic framework provide a generative approach for action refinement and efficiency in offline RL. We evaluate KANDI using wearable activity monitoring data in a two-arm clinical trial from our Physio-feedback Exercise Program (PEER) study, emphasizing its practical application in a fall-risk intervention program to promote physical activity among older adults. Additionally, KANDI outperforms state-of-the-art methods on the D4RL benchmark. These results underscore KANDI's potential to address key challenges in offline RL for healthcare applications, offering an effective solution for activity promotion intervention strategies in healthcare.
- Abstract(参考訳): オフライン強化学習(RL)と実際の臨床データを活用することで、医療用AIに注目が集まっている。
しかし、実装には重大な課題が伴う。
直接報酬の定義は困難であり、逆RL(IRL)は複雑な環境における専門家の行動から正確な報酬関数を推測するのに苦労する。
オフラインRLはまた、医療アプリケーションで観察された人間の行動と学習したポリシーを整合させる際の課題にも直面している。
転倒リスクの高い高齢者の身体活動促進にオフラインRLを適用する際の課題を、ウェアラブルセンサのアクティビティ監視に基づいて解決するために、KANDI(Kolmogorov-Arnold Networks and Diffusion Policies for Offline Inverse Reinforcement Learning)を紹介する。
Kolmogorov-Arnold Networksのフレキシブル関数近似を利用して,低降水リスクの高齢者(専門家)から自由生活環境行動を学ぶことで報奨関数を推定する。
本研究は,高齢者の身体活動を促進するための転倒リスク介入プログラムにおける実践的応用を強調し,身体活動モニタリングデータを用いた身体活動モニタリングデータを用いて,Physory-Feedback Exercise Program (PEER) を用いた2腕臨床試験で評価した。
さらに、kanDIはD4RLベンチマークで最先端のメソッドよりも優れています。
これらの結果は、医療分野における活動促進介入戦略の効果的なソリューションを提供するとともに、医療分野におけるオフラインRLの課題に対処するカンディの可能性を浮き彫りにしている。
関連論文リスト
- Zero-Shot Whole-Body Humanoid Control via Behavioral Foundation Models [71.34520793462069]
教師なし強化学習(RL)は、複雑な環境下で幅広い下流タスクを解くことができる事前学習エージェントを目標としている。
本稿では,ラベルのない行動データセットからトラジェクトリを模倣するための,教師なしRLの正規化アルゴリズムを提案する。
我々は,この手法の有効性を,挑戦的なヒューマノイド制御問題において実証する。
論文 参考訳(メタデータ) (2025-04-15T10:41:11Z) - StepCountJITAI: simulation environment for RL with application to physical activity adaptive intervention [9.395236804312496]
本稿では,RL手法の研究を促進するために設計されたRL環境であるStepCountJITAIを紹介する。
本稿では,適応的行動介入のためのRL手法の研究を促進するために設計されたRL環境であるStepCountJITAIを紹介する。
論文 参考訳(メタデータ) (2024-11-01T03:31:39Z) - Dyadic Reinforcement Learning [7.105179961841919]
モバイルヘルスは、日々の生活について個人に介入を提供することによって、健康効果を高めることを目的としている。
Dyadic RLは、コンテキスト要因と過去の応答に基づいて介入配信をパーソナライズするために設計されたオンライン強化学習アルゴリズムである。
本研究は,モバイル健康調査で収集したデータから構築した,おもちゃのシナリオと現実的なテストベッドの両方に関するシミュレーション研究を通じて,ダイアディッドRLの実証性能を実証する。
論文 参考訳(メタデータ) (2023-08-15T15:43:12Z) - Pruning the Way to Reliable Policies: A Multi-Objective Deep Q-Learning Approach to Critical Care [46.2482873419289]
我々は、より信頼性の高いクリティカルケアポリシーを得るための深いQ-ラーニングアプローチを導入する。
本手法を,集中治療室のシミュレーション環境と実際の健康記録を用いて,オフライン・オフ・セッティングで評価した。
論文 参考訳(メタデータ) (2023-06-13T18:02:57Z) - Deep Offline Reinforcement Learning for Real-world Treatment
Optimization Applications [3.770564448216192]
オフラインRLトレーニングにおける動作不均衡に対処するための,実践的かつ理論的に基礎的な遷移サンプリング手法を提案する。
糖尿病と敗血症治療最適化のための2つの現実的課題について広範な実験を行った。
本提案手法は, 様々な原則および臨床関連指標を用いて, 期待される健康影響を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2023-02-15T09:30:57Z) - On Pathologies in KL-Regularized Reinforcement Learning from Expert
Demonstrations [79.49929463310588]
我々は,KL-正規化強化学習と行動基準ポリシを併用することで,病理訓練のダイナミクスに悩まされることを示した。
非パラメトリックな行動参照ポリシーで治療できることを示す。
論文 参考訳(メタデータ) (2022-12-28T16:29:09Z) - Reinforcement Learning through Active Inference [62.997667081978825]
アクティブ推論のアイデアが従来の強化学習アプローチをどのように強化するかを示す。
我々は、将来望まれる自由エネルギーという、意思決定のための新しい目標を開発し、実装する。
得られたアルゴリズムが探索および利用に成功し、また、スパース、ウェル形状、報酬のないいくつかの挑戦的RLベンチマークにおいて頑健な性能を達成することを実証した。
論文 参考訳(メタデータ) (2020-02-28T10:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。