論文の概要: Psychotherapy AI Companion with Reinforcement Learning Recommendations
and Interpretable Policy Dynamics
- arxiv url: http://arxiv.org/abs/2303.09601v1
- Date: Thu, 16 Mar 2023 19:01:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 16:35:12.552054
- Title: Psychotherapy AI Companion with Reinforcement Learning Recommendations
and Interpretable Policy Dynamics
- Title(参考訳): 強化学習勧告と解釈可能な政策ダイナミクスを備えた心理療法aiコンパニオン
- Authors: Baihan Lin, Guillermo Cecchi, Djallel Bouneffouf
- Abstract要約: 本稿では、患者反応に基づくセラピストのためのトピックレコメンデーションを生成する強化学習心理療法AIコンパニオンを紹介する。
このシステムは、Deep Reinforcement Learning (DRL)を使用して、4つの異なる精神状態に対する多目的ポリシーを生成する。
- 参考スコア(独自算出の注目度): 27.80555922579736
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a Reinforcement Learning Psychotherapy AI Companion that
generates topic recommendations for therapists based on patient responses. The
system uses Deep Reinforcement Learning (DRL) to generate multi-objective
policies for four different psychiatric conditions: anxiety, depression,
schizophrenia, and suicidal cases. We present our experimental results on the
accuracy of recommended topics using three different scales of working alliance
ratings: task, bond, and goal. We show that the system is able to capture the
real data (historical topics discussed by the therapists) relatively well, and
that the best performing models vary by disorder and rating scale. To gain
interpretable insights into the learned policies, we visualize policy
trajectories in a 2D principal component analysis space and transition
matrices. These visualizations reveal distinct patterns in the policies trained
with different reward signals and trained on different clinical diagnoses. Our
system's success in generating DIsorder-Specific Multi-Objective Policies
(DISMOP) and interpretable policy dynamics demonstrates the potential of DRL in
providing personalized and efficient therapeutic recommendations.
- Abstract(参考訳): 患者反応に基づくセラピストのトピックレコメンデーションを生成する強化学習型精神療法aiコンパニオンを提案する。
このシステムは、Dep Reinforcement Learning(DRL)を使用して、不安、うつ病、統合失調症、自殺などの4つの異なる精神疾患に対する多目的ポリシーを生成する。
本稿では,3種類の作業アライアンス評価(タスク,ボンド,ゴール)を用いて,推奨トピックの精度に関する実験結果を示す。
実際のデータ(セラピストによって議論された歴史的トピック)を比較的よく捉えることができ、最良のパフォーマンスモデルが障害や評価尺度によって異なることを示す。
学習したポリシに対する解釈可能な洞察を得るために,2次元主成分分析空間と遷移行列のポリシトラジェクトリを可視化する。
これらの可視化は、異なる報酬信号で訓練され、異なる臨床診断で訓練されたポリシーの異なるパターンを明らかにする。
DISMOP(Disorder-Specific Multi-Objective Policies)と解釈可能なポリシーダイナミクスの生成に成功したことは、DRLがパーソナライズされ効率的な治療勧告を提供する可能性を示している。
関連論文リスト
- Contrastive Learning on Medical Intents for Sequential Prescription Recommendation [7.780844394603662]
Attentive Recommendation with Contrasted Intents (ARCI) は、異なるが共存する時間的経路を、共通の訪問シーケンスで捉えるように設計されている。
評価基準と分類基準の両方を用いて,2つの実世界のデータセットを処方勧告タスクとして実験した。
論文 参考訳(メタデータ) (2024-08-13T20:10:28Z) - Chain-of-Interaction: Enhancing Large Language Models for Psychiatric Behavior Understanding by Dyadic Contexts [4.403408362362806]
本稿では,対話型対話による精神科的意思決定支援のための大規模言語モデルを文脈化するための,対話型連鎖促進手法を提案する。
このアプローチにより、大規模言語モデルでは、患者の行動コーディングのためのコーディングスキーム、患者の状態、およびドメイン知識を活用することができる。
論文 参考訳(メタデータ) (2024-03-20T17:47:49Z) - Robustifying a Policy in Multi-Agent RL with Diverse Cooperative Behaviors and Adversarial Style Sampling for Assistive Tasks [51.00472376469131]
多様な介護者対応を訓練することで、ロバストな介護者の方針を学習する枠組みを提案する。
一般的な深層RL法で訓練されたポリシーは、他のエージェントのポリシーの変更に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2024-03-01T08:15:18Z) - COMPASS: Computational Mapping of Patient-Therapist Alliance Strategies with Language Modeling [14.04866656172336]
心理療法セッションで使用される自然言語から治療作業同盟を推定するための新しい枠組みを提案する。
提案手法は,高度大規模言語モデル(LLM)を用いて心理療法セッションの転写を解析し,それらをワーキングアライアンスインベントリにおけるステートメントの分散表現と比較する。
論文 参考訳(メタデータ) (2024-02-22T16:56:44Z) - Statistically Efficient Variance Reduction with Double Policy Estimation
for Off-Policy Evaluation in Sequence-Modeled Reinforcement Learning [53.97273491846883]
本稿では、オフラインシーケンスモデリングとオフライン強化学習をダブルポリシー推定と組み合わせたRLアルゴリズムDPEを提案する。
D4RLベンチマークを用いて,OpenAI Gymの複数のタスクで本手法を検証した。
論文 参考訳(メタデータ) (2023-08-28T20:46:07Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z) - Learning Individualized Treatment Rules with Estimated Translated
Inverse Propensity Score [29.606141542532356]
本稿では、個別化された治療規則(ITR)を学習して治療方針を導出することに焦点を当てる。
本フレームワークでは,ITRの学習を文脈的盗聴問題とみなし,治療方針の予測リスクを最小限に抑える。
長期的目標として、当社の方針は、最終的にはIVおよびVPの治験ガイドラインの改善につながる可能性がある。
論文 参考訳(メタデータ) (2020-07-02T13:13:56Z) - Hierarchical Reinforcement Learning for Automatic Disease Diagnosis [52.111516253474285]
政策学習のための対話システムに2段階の階層的な政策構造を統合することを提案する。
提案した政策構造は,多くの疾患や症状を含む診断問題に対処することができる。
論文 参考訳(メタデータ) (2020-04-29T15:02:41Z) - Optimizing Medical Treatment for Sepsis in Intensive Care: from
Reinforcement Learning to Pre-Trial Evaluation [2.908482270923597]
本研究の目的は, 介入を最適化する強化学習(RL)が, 学習方針の治験に対する規制に適合する経路を遡及的に得る枠組みを確立することである。
我々は,死の主な原因の一つであり,複雑で不透明な患者動態のため治療が困難である集中治療室の感染症に焦点を当てた。
論文 参考訳(メタデータ) (2020-03-13T20:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。