論文の概要: How Should We Represent History in Interpretable Models of Clinical Policies?
- arxiv url: http://arxiv.org/abs/2412.07895v1
- Date: Tue, 10 Dec 2024 20:03:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:03:19.978583
- Title: How Should We Represent History in Interpretable Models of Clinical Policies?
- Title(参考訳): 臨床政策の解釈可能なモデルにおける歴史の表現法
- Authors: Anton Matsson, Lena Stempfle, Yaochen Rao, Zachary R. Margolin, Heather J. Litman, Fredrik D. Johansson,
- Abstract要約: 臨床方針の解釈可能なモデリングのための患者履歴を要約するアプローチを体系的に比較する。
学習した表現を用いた解釈可能なシーケンスモデルは、すべてのタスクにわたるブラックボックスモデルと同等に機能する。
- 参考スコア(独自算出の注目度): 6.423626797089031
- License:
- Abstract: Modeling policies for sequential clinical decision-making based on observational data is useful for describing treatment practices, standardizing frequent patterns in treatment, and evaluating alternative policies. For each task, it is essential that the policy model is interpretable. Learning accurate models requires effectively capturing the state of a patient, either through sequence representation learning or carefully crafted summaries of their medical history. While recent work has favored the former, it remains a question as to how histories should best be represented for interpretable policy modeling. Focused on model fit, we systematically compare diverse approaches to summarizing patient history for interpretable modeling of clinical policies across four sequential decision-making tasks. We illustrate differences in the policies learned using various representations by breaking down evaluations by patient subgroups, critical states, and stages of treatment, highlighting challenges specific to common use cases. We find that interpretable sequence models using learned representations perform on par with black-box models across all tasks. Interpretable models using hand-crafted representations perform substantially worse when ignoring history entirely, but are made competitive by incorporating only a few aggregated and recent elements of patient history. The added benefits of using a richer representation are pronounced for subgroups and in specific use cases. This underscores the importance of evaluating policy models in the context of their intended use.
- Abstract(参考訳): 治療実践の説明や治療の頻繁なパターンの標準化,代替方針の評価に有用である。
各タスクに対して、ポリシーモデルが解釈可能であることが不可欠である。
正確なモデルを学ぶには、患者の状態を効果的に把握する必要がある。
最近の研究は前者を支持しているが、どのように歴史を解釈可能な政策モデリングのために表現すべきかについては疑問が残る。
モデル適合性に着目し,4つのシーケンシャルな意思決定課題にまたがる臨床方針の解釈可能なモデリングのために,患者履歴を要約する多様なアプローチを体系的に比較した。
患者サブグループ, 臨界状態, 治療段階の評価を分解することで, 様々な表現を用いて学んだ政策の相違を説明し, 一般的なユースケースに特有の課題を浮き彫りにしている。
学習した表現を用いた解釈可能なシーケンスモデルは、すべてのタスクにわたるブラックボックスモデルと同等に機能する。
手作り表現を用いた解釈可能なモデルは、歴史を完全に無視する場合には著しく悪化するが、患者の歴史のごく一部と最近の要素を組み込むことで、競争が激化する。
よりリッチな表現を使うことの利点は、サブグループや特定のユースケースで顕著になる。
このことは、彼らの意図した使用の文脈におけるポリシーモデルを評価することの重要性を浮き彫りにする。
関連論文リスト
- Bias patterns in the application of LLMs for clinical decision support: A comprehensive study [2.089191490381739]
大きな言語モデル (LLMs) は、臨床意思決定プロセスを伝える強力な候補として登場した。
これらのモデルは、デジタルランドスケープを形成する上で、ますます顕著な役割を担っている。
1) LLM は、患者の保護された属性(人種など)に基づいて、どの程度の社会的バイアスを示すのか、2) 設計選択(アーキテクチャ設計や戦略の推進など)は、観察されたバイアスにどのように影響するのか?
論文 参考訳(メタデータ) (2024-04-23T15:52:52Z) - Class-Incremental Continual Learning for General Purpose Healthcare
Models [3.768737590492549]
継続的な学習は、以前のタスクのパフォーマンス低下なしに、新しいタスクを学習することを可能にする。
単一モデルは、異なる専門分野から新しいタスクを逐次学習し、単純メソッドに匹敵するパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2023-11-07T19:17:59Z) - Robust and Interpretable Medical Image Classifiers via Concept
Bottleneck Models [49.95603725998561]
本稿では,自然言語の概念を用いた堅牢で解釈可能な医用画像分類器を構築するための新しいパラダイムを提案する。
具体的には、まず臨床概念をGPT-4から検索し、次に視覚言語モデルを用いて潜在画像の特徴を明示的な概念に変換する。
論文 参考訳(メタデータ) (2023-10-04T21:57:09Z) - LifeLonger: A Benchmark for Continual Disease Classification [59.13735398630546]
MedMNISTコレクションの連続的な疾患分類のためのベンチマークであるLifeLongerを紹介する。
タスクとクラスでの病気の漸進的な学習は、モデルをスクラッチから再トレーニングすることなく、新しいサンプルを分類する問題に対処する。
クロスドメインインクリメンタル学習は、これまで得られた知識を維持しながら、異なる機関から派生したデータセットを扱う問題に対処する。
論文 参考訳(メタデータ) (2022-04-12T12:25:05Z) - POETREE: Interpretable Policy Learning with Adaptive Decision Trees [78.6363825307044]
POETREEは、ポリシー学習を解釈するための新しいフレームワークである。
患者の観察と医療史に基づいて、医師の行動を決定する確率的ツリーポリシーを構築する。
これは、リアルおよび合成医療データセットの最先端を上回ります。
論文 参考訳(メタデータ) (2022-03-15T16:50:52Z) - Churn modeling of life insurance policies via statistical and machine
learning methods -- Analysis of important features [0.0]
本研究は,2つの部分株式内の顧客の個別契約キャンセル動作を,様々な分類手法の助けを借りてモデル化する。
モデリングに使用されるデータ、構造化されたデータ、そして、どのように浄化されるかを説明します。
使用済みモデルは、広範囲なチューニングプロセスに基づいて校正され、その後、その適性についてグラフィカルに評価される。
論文 参考訳(メタデータ) (2022-02-18T13:20:47Z) - What Do You See in this Patient? Behavioral Testing of Clinical NLP
Models [69.09570726777817]
本稿では,入力の変化に関する臨床結果モデルの振る舞いを評価する拡張可能なテストフレームワークを提案する。
私たちは、同じデータを微調整しても、モデル行動は劇的に変化し、最高のパフォーマンスのモデルが常に最も医学的に可能なパターンを学習していないことを示しています。
論文 参考訳(メタデータ) (2021-11-30T15:52:04Z) - Learning Predictive and Interpretable Timeseries Summaries from ICU Data [33.787187660310444]
本研究では,ヒトが予測的かつ容易に理解できる臨床時系列の要約を学習するための新しい手法を提案する。
学習した要約は従来の解釈可能なモデルクラスより優れており、病院内死亡率分類タスクにおける最先端のディープラーニングモデルに匹敵する性能を実現している。
論文 参考訳(メタデータ) (2021-09-22T21:14:05Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - An Empirical Study of Representation Learning for Reinforcement Learning
in Healthcare [19.50370829781689]
我々はMIMIC-IIIデータセットにおける敗血症患者のデータを用いて患者の状態を表現した。
逐次的に形成された状態表現は、バッチ設定において効果的なポリシー学習を促進する。
論文 参考訳(メタデータ) (2020-11-23T06:37:08Z) - Estimating Counterfactual Treatment Outcomes over Time Through
Adversarially Balanced Representations [114.16762407465427]
時間とともに治療効果を推定するためにCRN(Counterfactual Recurrent Network)を導入する。
CRNは、患者履歴のバランスの取れた表現を構築するために、ドメイン敵のトレーニングを使用する。
本モデルでは, 正解率の予測と適切な治療時期の選択において, 誤差の低減を図っている。
論文 参考訳(メタデータ) (2020-02-10T20:47:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。