論文の概要: Locally Interpretable Individualized Treatment Rules for Black-Box Decision Models
- arxiv url: http://arxiv.org/abs/2602.11520v1
- Date: Thu, 12 Feb 2026 03:27:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-13 21:07:25.619889
- Title: Locally Interpretable Individualized Treatment Rules for Black-Box Decision Models
- Title(参考訳): ブラックボックス決定モデルの局所的解釈可能な個別化処理規則
- Authors: Yasin Khadem Charvadeh, Katherine S. Panageas, Yuan Chen,
- Abstract要約: 本稿では,局所的解釈可能な個別化処理規則 (LI-ITR) を導入し,対象特異的な処理規則を構築する。
LI-ITRは真の主観的局所係数と最適な治療戦略を正確に回復する。
乳癌における正確な副作用管理への応用は、フレキシブルな予測モデルの必要性を示している。
- 参考スコア(独自算出の注目度): 3.6086016443500952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Individualized treatment rules (ITRs) aim to optimize healthcare by tailoring treatment decisions to patient-specific characteristics. Existing methods typically rely on either interpretable but inflexible models or highly flexible black-box approaches that sacrifice interpretability; moreover, most impose a single global decision rule across patients. We introduce the Locally Interpretable Individualized Treatment Rule (LI-ITR) method, which combines flexible machine learning models to accurately learn complex treatment outcomes with locally interpretable approximations to construct subject-specific treatment rules. LI-ITR employs variational autoencoders to generate realistic local synthetic samples and learns individualized decision rules through a mixture of interpretable experts. Simulation studies show that LI-ITR accurately recovers true subject-specific local coefficients and optimal treatment strategies. An application to precision side-effect management in breast cancer illustrates the necessity of flexible predictive modeling and highlights the practical utility of LI-ITR in estimating optimal treatment rules while providing transparent, clinically interpretable explanations.
- Abstract(参考訳): 個別治療規則(ITR)は、治療決定を患者固有の特徴に合わせることにより、医療を最適化することを目的としている。
既存の方法は通常、解釈可能だが柔軟性のないモデルか、解釈不可能を犠牲にする非常に柔軟なブラックボックスアプローチに頼っている。
本稿では、フレキシブル機械学習モデルを組み合わせて、複雑な治療結果と局所的解釈可能な近似を正確に学習し、対象固有の治療ルールを構築する、局所的解釈可能な個別処理規則(LI-ITR)を提案する。
LI-ITRは変分オートエンコーダを使用して、現実的な局所的な合成サンプルを生成し、解釈可能な専門家の混合を通じて個別化された決定規則を学習する。
シミュレーション研究により、LI-ITRは真の主観的局所係数と最適な治療戦略を正確に回復することが示された。
乳癌における正確な副作用管理への応用は、フレキシブルな予測モデルの必要性を示し、透明で臨床的に解釈可能な説明を提供しながら、最適な治療規則を推定するLI-ITRの実用性を強調している。
関連論文リスト
- A Federated and Parameter-Efficient Framework for Large Language Model Training in Medicine [59.78991974851707]
大規模言語モデル(LLM)は、質問応答や診断など、医療ベンチマークにおいて強力なパフォーマンスを示している。
ほとんどの医療用LDMは、異種システムの一般化性と安全性の制限に直面している単一の機関のデータに基づいて訓練されている。
本稿では, LLMを医療応用に適用するためのモデルに依存しない, パラメータ効率のよいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-29T18:48:21Z) - Dimension-reduced outcome-weighted learning for estimating individualized treatment regimes in observational studies [1.338174941551702]
個別治療体制(ITR)は、患者固有の特徴に基づいて治療を割り当てることにより、臨床結果を改善することを目的としている。
本稿では,潜在的結果のコントラストを目標とし,低次元部分空間を同定する,新しい十分次元削減手法を提案する。
提案手法は,緩やかな規則性条件下で,ベイズリスクに収束する普遍的整合性を実現することを示す。
論文 参考訳(メタデータ) (2026-01-11T05:38:08Z) - Timely Clinical Diagnosis through Active Test Selection [49.091903570068155]
本稿では,現実の診断推論をよりうまくエミュレートするためのACTMED (Adaptive Clinical Test selection via Model-based Experimental Design)を提案する。
LLMは柔軟なシミュレータとして機能し、構造化されたタスク固有のトレーニングデータを必要とせずに、患者状態のもっともらしい分布を生成し、信念の更新をサポートする。
我々は、実世界のデータセット上でACTMEDを評価し、診断精度、解釈可能性、リソース使用量を改善するためにテスト選択を最適化できることを示す。
論文 参考訳(メタデータ) (2025-10-21T18:10:45Z) - Knowledgeable Language Models as Black-Box Optimizers for Personalized Medicine [24.857548247549033]
パーソナライズドメディカルでは、候補治療を患者に任意に投与して有効性を評価することはできない。
我々は、LEONを「プロンプトによる最適化」により実装し、LLMを治療設計を提案するエンジンとして利用する。
実世界の最適化タスクの実験では、LEONは患者に対する個別治療の提案において、従来の方法とLLMベースの方法の両方に優れていた。
論文 参考訳(メタデータ) (2025-09-25T10:19:52Z) - Doubly Robust Fusion of Many Treatments for Policy Learning [7.943530359935207]
治療群間での共変量を安定的にバランスするキャリブレーション重み付き処理融合法を提案する。
我々は、一貫性、治療融合のオラクル特性、後悔境界を含む理論的保証を確立する。
本手法の実用性について,全国の電子健康記録由来の非識別データベースを用いて概説する。
論文 参考訳(メタデータ) (2025-05-12T21:55:57Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - Benchmarking Heterogeneous Treatment Effect Models through the Lens of
Interpretability [82.29775890542967]
治療のパーソナライズされた効果を見積もるのは複雑だが、普及している問題である。
ヘテロジニアス処理効果推定に関する機械学習文献の最近の進歩は、洗練されたが不透明なツールの多くを生み出した。
我々は、ポストホックな特徴重要度法を用いて、モデルの予測に影響を及ぼす特徴を特定する。
論文 参考訳(メタデータ) (2022-06-16T17:59:05Z) - Improving the compromise between accuracy, interpretability and
personalization of rule-based machine learning in medical problems [0.08594140167290096]
特定の患者に対してルールが正しいか否かを予測するための新しいコンポーネントを導入し、その手順にパーソナライズを導入する。
3つの公開臨床データセットを用いた検証結果から,選択したルールセットの予測性能の向上も可能であることが示された。
論文 参考訳(メタデータ) (2021-06-15T01:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。