論文の概要、ライセンス

# (参考訳) エビデンス支援による予測の学習:臨床リスク予測への応用 [全文訳有]

Learning to Predict with Supporting Evidence: Applications to Clinical Risk Prediction ( http://arxiv.org/abs/2103.02768v1 )

ライセンス: CC BY 4.0
Aniruddh Raghu, John Guttag, Katherine Young, Eugene Pomerantsev, Adrian V. Dalca, Collin M. Stultz(参考訳) 機械学習モデルがヘルスケアに与える影響は、医療専門家がこれらのモデルによって予測される信頼度に依存する。 本論文では,予測が信頼されるべき理由に関するドメイン関連証拠を臨床専門家に提示する手法を提案する。 まず,有意な潜在概念を予測対象や観測データに関連付ける確率モデルを設計する。 このモデルにおける潜在変数の推論は、予測の作成と、その予測の裏付けとなる証拠の提供の両方に対応する。 i) 変動学習を用いたモデルパラメータの推定, (ii) 確率モデルから派生した目的を訓練したニューラルネットワークを用いたモデルにおける潜時変数の推定を最大に近似する。 本研究は,循環器疾患患者の死亡リスクを予測するための課題である。 特に,心電図と表データ入力を用いて,本手法が正確な予測のための適切な領域関連証拠を提供することを示す。

The impact of machine learning models on healthcare will depend on the degree of trust that healthcare professionals place in the predictions made by these models. In this paper, we present a method to provide people with clinical expertise with domain-relevant evidence about why a prediction should be trusted. We first design a probabilistic model that relates meaningful latent concepts to prediction targets and observed data. Inference of latent variables in this model corresponds to both making a prediction and providing supporting evidence for that prediction. We present a two-step process to efficiently approximate inference: (i) estimating model parameters using variational learning, and (ii) approximating maximum a posteriori estimation of latent variables in the model using a neural network, trained with an objective derived from the probabilistic model. We demonstrate the method on the task of predicting mortality risk for patients with cardiovascular disease. Specifically, using electrocardiogram and tabular data as input, we show that our approach provides appropriate domain-relevant supporting evidence for accurate predictions.
公開日: Thu, 4 Mar 2021 00:26:32 GMT

※ 翻訳結果を表に示しています。PDFがオリジナルの論文です。翻訳結果のライセンスはCC BY-SA 4.0です。詳細はトップページをご参照ください。

翻訳結果

    Page: /      
英語(論文から抽出)日本語訳スコア
1 2 0 2 r a M 4 ] G L . 1 2 0 2 r a m 4 ] g l である。 0.78
s c [ 1 v 8 6 7 2 0 . s c [ 1 v 8 6 7 2 0 . 0.85
3 0 1 2 : v i X r a 3 0 1 2 : v i X r a 0.85
Learning to Predict with Supporting Evidence: エビデンスを支援することによる予測の学習 0.61
Applications to Clinical Risk Prediction 臨床リスク予測への応用 0.88
Massachusetts Institute of Technology マサチューセッツ工科大学 0.42
Aniruddh Raghu araghu@mit.edu Eugene Pomerantsev Massachusetts General Hospital Aniruddh Raghu araghu@mit.edu Eugene Pomerantsev Massachusetts General Hospital 1.00
John Guttag ジョン・グタグ(John Guttag) 0.49
Massachusetts Institute of Technology マサチューセッツ工科大学 0.42
Adrian V. Dalca Adrian V. Dalca 0.94
Massachusetts Institute of Technology マサチューセッツ工科大学 0.42
Katherine Young Harvard Medical School Collin M. Stultz Katherine Young Harvard Medical School Collin M. Stultz 0.94
Massachusetts Institute of Technology Massachusetts General Hospital マサチューセッツ工科大学マサチューセッツ総合病院 0.48
Massachusetts Institute of Technology Massachusetts General Hospital マサチューセッツ工科大学マサチューセッツ総合病院 0.48
Harvard Medical School ハーバード大学医学部 0.73
Harvard Medical School ハーバード大学医学部 0.73
ABSTRACT The impact of machine learning models on healthcare will depend on the degree of trust that healthcare professionals place in the predictions made by these models. ABSTRACT 機械学習モデルがヘルスケアに与える影響は、医療専門家がこれらのモデルによって作成された予測に置いた信頼度に依存します。 0.77
In this paper, we present a method to provide individuals with clinical expertise with domain-relevant evidence about why a prediction should be trusted. 本稿では,予測を信頼すべき理由に関するドメイン関連証拠を臨床専門知識で個人に提供する手法を提案する。 0.82
We first design a probabilistic model that relates meaningful latent concepts to prediction targets and observed data. まず,有意な潜在概念を予測対象や観測データに関連付ける確率モデルを設計する。 0.85
Inference of latent variables in this model corresponds to both making a prediction and providing supporting evidence for that prediction. このモデルにおける潜在変数の推論は、予測の作成と、その予測の裏付けとなる証拠の提供の両方に対応する。
訳抜け防止モード: このモデルにおける潜入変数の推論は対応する 予測を行い 予測の裏付けとなる証拠を提供するのです
0.81
We present a two-step process to efficiently approximate inference: (i) estimating model parameters using variational learning, and (ii) approximating maximum a posteriori estimation of latent variables in the model using a neural network, trained with an objective derived from the probabilistic model. i) 変動学習を用いたモデルパラメータの推定, (ii) 確率モデルから派生した目的を訓練したニューラルネットワークを用いたモデルにおける潜時変数の推定を最大に近似する。
訳抜け防止モード: 推論を効率的に近似する2段階の過程を提示する: (i) 変分学習を用いたモデルパラメータの推定 ii)ニューラルネットワークを用いてモデル内の潜伏変数の最大後方推定を近似する。 確率モデルに基づく 目標で訓練された
0.86
We demonstrate the method on the task of predicting mortality risk for patients with cardiovascular disease. 本研究は,循環器疾患患者の死亡リスクを予測するための課題である。 0.70
Specifically, using electrocardiogram and tabular data as input, we show that our approach provides appropriate domain-relevant supporting evidence for accurate predictions. 特に,心電図と表データ入力を用いて,本手法が正確な予測のための適切な領域関連証拠を提供することを示す。 0.68
KEYWORDS Machine Learning, Interpretability ACM Reference Format: Aniruddh Raghu, John Guttag, Katherine Young, Eugene Pomerantsev, Adrian V. Dalca, and Collin M. Stultz. KEYWORDS Machine Learning, Interpretability ACM Reference Format: Aniruddh Raghu, John Guttag, Katherine Young, Eugene Pomerantsev, Adrian V. Dalca, Collin M. Stultz。 0.85
2021. Learning to Predict with Supporting Evidence: Applications to Clinical Risk Prediction. 2021. 支持証拠による予測への学習:臨床リスク予測への応用。 0.85
In ACM Conference on Health, Inference, and Learning (ACM CHIL ’21), April 8–10, 2021, Virtual Event, USA. ACM Conference on Health, Inference, and Learning (ACM CHIL’21), April 8–10, 2021, Virtual Event, USA。 0.81
ACM, New York, NY, USA, 13 pages. ACM, New York, NY, USA, 13ページ。 0.80
https://doi.org/10.1 145/ 3450439.3451869 1 INTRODUCTION There is significant interest in using machine learning (ML) models in high-stakes domains such as medicine, where human experts use model predictions to inform decisions [6, 9, 46]. https://doi.org/10.1 145/ 3450439.3451869 1 INTRODUCTION 人間の専門家がモデル予測を使用して意思決定を通知する医学などの高ステーク領域で機械学習(ML)モデルを使用することに大きな関心があります[6, 9, 46]。
訳抜け防止モード: 医学のような高利害な領域で機械学習(ML)モデルを使うことに大きな関心がある。 人間の専門家が モデル予測を使って 決定を伝えています [6, 9, 46]
0.77
When used Permission to make digital or hard copies of all or part of this work for personal or classroom use is granted without fee provided that copies are not made or distributed for profit or commercial advantage and that copies bear this notice and the full citation on the first page. 本作品のデジタルコピー又はハードコピーを個人的又は教室的に使用する際には、利益または商業的利益のためにコピーが作成または配布されず、コピーがこの通知及び第1ページの引用を満たしていることが条件として、無償で許可される。 0.71
Copyrights for components of this work owned by others than ACM must be honored. ACM以外の者が所有するこの作品のコンポーネントの著作権は尊重されなければならない。 0.58
Abstracting with credit is permitted. クレジットによる抽象化は許可されている。 0.48
To copy otherwise, or republish, to post on servers or to redistribute to lists, requires prior specific permission and/or a fee. サーバーにポストしたり、リストを再配布したりするには、事前の特定の許可と/または料金が必要である。 0.60
Request permissions from permissions@acm.org. permissions@acm.org からの許可を要求する。 0.65
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA © 2021 Association for Computing Machinery. ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA © 2021 Association for Computing Machinery。 0.89
ACM ISBN 978-1-4503-8359-2/21 /04. ACM ISBN 978-1-4503-8359-2/21 /04 0.36
https://doi.org/10.1 145/3450439.3451869 https://doi.org/10.1 145/3450439.3451869 0.29
Figure 1: Learning to Predict with Supporting Evidence. 図1:エビデンスをサポートすることで予測を学ぶこと。 0.66
We propose a model that produces both a prediction and accompanying domain-relevant supporting evidence for that prediction: inferred concepts that are clinically meaningful and can assist a clinician in deciding how to act on the prediction. 予測とそれに伴うドメイン関連証拠の両方を生成するモデルを提案する: 臨床的に有意義で、予測にどのように作用するかを臨床医が判断するのに役立つ推論された概念。 0.73
Consistency of the prediction and supporting evidence is ensured using a probabilistic model and domain knowledge. 予測と証拠の一貫性は確率モデルとドメイン知識を使って保証される。 0.79
by a clinician, the utility of an ML model depends not only on the accuracy of its predictions, but also on how much trust the clinician places in the prediction [42]. 臨床医によって、MLモデルの有用性は、その予測の精度だけでなく、予測における臨床医の場所の信頼性にも依存します[42]。 0.73
Building trust in predictions can be tackled in different ways, including (1) providing statistical arguments to reflect the level of certainty in a prediction [31, 35] (2) providing an explanation of how a model reached its prediction, either through understanding important input features that led to the model output, or by using an inherently explainable model [27, 43]; and (3) offering domainspecific supporting evidence about the prediction [13]. 予測に対する信頼の構築には、(1)予測[31,35]において確実性のレベルを反映した統計的議論を提供すること、(2)モデル出力につながる重要な入力特徴を理解すること、または本質的に説明可能なモデル[27,43]を使用すること、(3)予測[13]に関するドメイン固有の支持証拠を提供すること、など、さまざまな方法で取り組むことができる。 0.87
For models used by domain experts with a limited understanding of machine learning, prior work has emphasised the importance of providing domain-relevant supporting evidence for predictions [21, 28]. 機械学習の理解が限られているドメイン専門家が使用するモデルでは、事前の作業では、予測の証拠となるドメイン関連の提供の重要性が強調されている [21, 28]。 0.68
In medicine, presenting relevant clinical information that supports a model prediction can be crucial, since clinicians draw significantly on medical knowledge when making decisions [42, 45]. 医学では, モデル予測を支援する関連する臨床情報を提示することは不可欠であり, 臨床医は意思決定時に医療知識に著しく依存する [42, 45]。 0.83
For example, a cardiologist might deem a patient to be at high risk of death (prediction) because of their low cardiac output (domain-relevant supporting evidence), which may inform a therapeutic choice [47]. 例えば、心臓科医は、心臓の出力が低い(ドメイン関連支持証拠)ため、患者が死亡のリスクが高い(予測)と判断し、治療の選択を知らせる可能性があります[47]。 0.78
A model that produces a prediction (e g , 予測を生成するモデル(例: )。 0.72
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA high risk of death) accompanied by clinically meaningful evidence for this prediction (e g , poor cardiac health) closely mirrors a clinician’s mental model when treating patients, helping to build trust. ACM CHIL ’21, April 8-10, 2021, Virtual Event, USA high risk of death)は、この予測の臨床的に有意義な証拠(例えば、心臓の健康状態の悪化)を伴い、患者を治療する際の臨床医の精神モデルに密接に反映し、信頼を築くのに役立つ。 0.72
In this paper, we present a method to construct predictive models that are accurate and provide domain-relevant supporting evidence for predictions (Figure 1). 本稿では,精度の高い予測モデルを構築する手法を提案し,予測のためのドメイン関連支援証拠を提供する(図1)。 0.84
The method is designed to provide users that have a deep understanding of the application domain with an appropriate reason to trust or distrust a prediction made by the model. この方法は、モデルによって作成された予測を信頼または不信する適切な理由をアプリケーションドメインについて深く理解しているユーザーに提供するように設計されています。
訳抜け防止モード: この方法は,アプリケーションドメインを適切な理由から深く理解したユーザに提供するように設計されている。 モデルによる予測を信頼または不信にすること。
0.77
Our contributions are: (1) We design a probabilistic model that relates observed data and prediction targets to domain-relevant latent variables. 1)観測データと予測対象をドメイン関連潜在変数に関連付けた確率モデルを設計する。
訳抜け防止モード: 私たちの貢献は: (1) 観測データと予測対象を関連する潜在変数の領域に関連付ける確率モデルを設計する。
0.81
We embed a rich forward model driven by domain knowledge to ensure that the latent variables correspond to domain-relevant concepts. ドメイン知識によって駆動されるリッチフォワードモデルを組み込むことで、潜入変数がドメイン関連の概念に対応することを保証する。 0.60
By construction, maximum a posteriori (MAP) inference in this probabilistic model yields both accurate predictions and domain-relevant supporting evidence. 構築により、この確率モデルにおける最大後続推定(MAP)は、正確な予測とドメイン関連支持証拠の両方をもたらす。 0.71
(2) We demonstrate a two-step learning process that approximates MAP inference: (i) estimating parameters of the probabilistic model using variational learning; (ii) approximating MAP estimation of latent variables in the model, yielding a prediction and supporting evidence, using a neural network trained with an objective derived from the probabilistic model. 2) MAP推論を近似する2段階の学習プロセスを示す。(i) 変動学習を用いて確率モデルのパラメータを推定する;(ii) モデル内の潜在変数のMAP推定を近似し、確率モデルから派生した目的を訓練したニューラルネットワークを用いて予測と支持の証拠を得る。 0.88
Importantly, we do not need labels for supporting concepts at training time. 重要なのは、トレーニング時に概念をサポートするラベルは必要ないことです。 0.65
(3) We demonstrate our method on a real-world clinical dataset for the task of predicting mortality risk for patients with cardiovascular disease using multimodal electrocardiogram and tabular data. 3) 心血管疾患患者の死亡リスクを予測するために, マルチモーダル心電図と表層データを用いた実地臨床データセットを用いて本手法を実証した。 0.85
We show that our method produces accurate risk predictions jointly with meaningful supporting evidence for predictions. 提案手法は,予測に対する有意義な支持証拠と協調して正確なリスク予測を行う。 0.66
The supporting evidence captures information that is often only obtained from invasive procedures, and could provide important therapeutic insight for clinicians. 補助的証拠は、しばしば侵襲的処置からのみ得られる情報を捉え、臨床医に重要な治療的洞察を与える。 0.72
2 RELATED WORK Work on improving trust has often focused on ML model interpretability, including post hoc interpretation using input feature attribution [25, 40, 43, 50]; post hoc concept-based attribution [10, 16]; and constructing explainable models through regularisation [27, 33] or prototype/input extraction [1, 22, 24]. 2 信頼向上に関する作業は,入力特徴帰属 [25, 40, 43, 50] を用いたポストホック解釈,ポストホック概念に基づく帰属 [10, 16] ,正規化 [27, 33] またはプロトタイプ/入力抽出 [1, 22, 24] による説明可能なモデルの構築など,mlモデル解釈可能性に注目していることが多い。 0.78
Our work differs in spirit from these, since we: (1) do not focus on explaining how the predictive model works, and instead on providing explicit supporting evidence that is useful to domain experts with limited ML understanding; (2) embed a mechanism to provide supporting evidence for predictions directly into the model, rather than relying on post hoc analysis; and (3) use prior domain knowledge to inform the higher-level abstractions for supporting evidence, rather than learning abstractions that may not resemble inherently meaningful concepts. Our work differs in spirit from these, since we: (1) do not focus on explaining how the predictive model works, and instead on providing explicit supporting evidence that is useful to domain experts with limited ML understanding; (2) embed a mechanism to provide supporting evidence for predictions directly into the model, rather than relying on post hoc analysis; and (3) use prior domain knowledge to inform the higher-level abstractions for supporting evidence, rather than learning abstractions that may not resemble inherently meaningful concepts. 0.87
One closely related work is on Self-Explaining Neural Networks (SENN) [27], which provide explanations for predictions by forming predictions as a product of input-dependent concepts and weighting terms for these concepts. 自己説明型ニューラルネットワーク(SENN) [27] では,入力に依存した概念の積として予測を形成し,これらの概念を重み付けする。 0.67
The concepts for explanations are learned from data (not constrained by domain understanding) and are interpreted by considering input examples that most characterise them. 説明の概念はデータ(ドメイン理解によって制約されない)から学習され、最も特徴付ける入力例を考慮して解釈される。 0.78
Unlike the supporting evidence we consider, learned concepts in SENN need not resemble meaningful abstractions that a domain expert would find useful in decision making. 私たちが考える支持的な証拠とは異なり、sennで学んだ概念は、ドメインエキスパートが意思決定で役に立つと感じる意味のある抽象概念に似ていない。 0.54
Finally, SENN A. Raghu, et al 最後に、SENN A. Raghu, et al 0.79
𝛼 𝛽 𝜋𝑖 𝑦𝑖 xi 𝛼 𝛽 𝜋𝑖 𝑦𝑖 xi 0.85
𝑁 𝜓 zi 𝜙 Figure 2: Probabilistic model for LPS. 𝑁 𝜓 ジ 𝜙 図2: LPSの確率モデル。 0.79
The model relates the class label 𝑦𝑖 to (latent) class probability vector 𝜋𝑖, (latent) supporting evidence factors 𝑧𝑖, observed features for each data point 𝑥𝑖, and distributional parameters 𝜙 and 𝜓. このモデルは、クラスラベル yi と (latent) クラス確率ベクトル πi 、(latent) 支持の証拠因子 zi 、各データポイント xi の観測された特徴、および分布パラメータ φ および (latent) と関連している。 0.78
The circled quantities are random variables, with shading used for quantities observed at training time. 円周量はランダム変数であり、訓練時に観測された量にシェーディングを用いる。 0.69
At inference time, we only observe the features 𝑥𝑖. 推測時、私たちは特徴 xi だけを観察します。 0.73
The plate signifies variables that are data point-specific, for 𝑁 data points, and the quantities outside the plate are common across data points. プレートは n 個のデータポイントに対してデータポイント固有の変数を意味し、プレート外の量はデータポイント間で共通である。 0.85
uses input examples as prototypes to characterise learned concepts. 入力例をプロトタイプとして学習概念を特徴づけます。 0.70
With complex, multimodal data, as in our clinical experiment, such examples can be challenging to visualise and understand. 臨床実験のように複雑なマルチモーダルデータでは、このような例は可視化と理解が難しい。 0.75
Other recent work on using domain-relevant concepts to support predictions is close in spirit to ours [1, 13, 20], but these methods require labelled concepts at training time. 予測をサポートするためにドメイン関連の概念を使用する他の研究は、[1, 13, 20]に近づきつつあるが、これらの手法はトレーニング時にラベル付きの概念を必要とする。 0.65
In contrast, our work relates the supporting concepts to the predictions through a probabilistic model, such that inference directly yields coupled predictions and supporting evidence for those predictions. 対照的に、我々の研究は、仮説が結合予測を直接生成し、それらの予測の証拠を裏付けるような確率論的モデルを通して、支援概念を予測に関連付ける。 0.62
We detail further differences from related work (such as Koh et al [20], Melis and Jaakkola [27]) in the appendix. 付録中の関連する作品(Koh et al [20], Melis, Jaakkola [27] など)との相違について詳述する。
訳抜け防止モード: 関連作品(Koh et al [ 20 ] など)との相違について詳述する。 Melis and Jaakkola (27 ] ) in the appendix .
0.78
3 LEARNING TO PREDICT WITH SUPPORTING EVIDENCE (LPS) In this section, we present our method, Learning to Predict with Supporting Evidence (LPS) , to construct models that produce both predictions and clinically-relevant supporting evidence. 3 LPSによる予測学習(LPS) 本論では, 予測と臨床関連証拠の両方を生成するモデルを構築するために, LPSによる予測学習(Learning to Predict with Supporting Evidence)について述べる。 0.82
We define a probabilistic generative model that relates observed data, domain-relevant concepts, and predictive targets, specifying how to ground the concepts using a forward model. 観測データ、ドメイン関連概念、予測目標を関連づけた確率的生成モデルを定義し、フォワードモデルを用いて概念の根底付け方法を特定します。 0.78
Maximum a posteriori (MAP) inference in this model jointly yields predictions and domain-relevant supporting evidence. このモデルにおける最大後部推定(MAP)は、予測とドメイン関連証拠を共同で生成する。 0.71
Since such inference is computationally challenging, we present a two-step learning process to approximate MAP inference. このような推論は計算的に困難であるため、MAP推論を近似する2段階の学習プロセスを提案する。 0.61
3.1 Probabilistic Model We describe the model for a general binary classification problem, where the task is to predict class label 𝑦𝑖 and positive class probability 𝜋𝑖, given observed features 𝑥𝑖. 3.1 確率モデル 観測された特徴 xi を与えられたクラスラベル yi と正のクラス確率 πi を予測するタスクである一般二項分類問題のモデルを記述する。 0.85
The model is summarised in Figure 2. モデルは図2にまとめられます。 0.81
英語(論文から抽出)日本語訳スコア
Learning to Predict with Supporting Evidence Formally, for 𝑖 = 1, . i = 1 の証拠を形式的にサポートして予測する学習。 0.68
. . , 𝑁 , the class label 𝑦𝑖 ∈ {0, 1} is distributed as 𝑦𝑖 ∼ Bernoulli(𝜋𝑖) where the positive class probability 𝜋𝑖 ∈ [0, 1] is distributed as the flexible prior 𝜋𝑖 ∼ Beta(𝛼, 𝛽). . . N , N , クラスラベル yi ∈ {0, 1} は、正のクラス確率 πi ∈ [0, 1] が柔軟に先行する πi ∈ Beta(α, β) として分布する yi \ Bernoulli(πi) として分布する。 0.86
Fixed parameters 𝛼 and 𝛽 capture the overall balance of the two classes. 固定パラメータ α と β は2つのクラスの全体のバランスを捉える。 0.88
In clinical risk prediction, 𝜋𝑖 could represent an individual patient’s 60-day risk of death. 臨床リスク予測では、πiは患者の60日間の死亡リスクを表す可能性がある。 0.65
We let 𝑧𝑖 ∈ R𝑚, 𝑧𝑖 ∼ 𝑝(𝑧𝑖|𝜋𝑖, 𝜙) be a latent vector encoding interpretable, domain-specific concepts, where 𝑚 is the number of concepts, and global parameters 𝜙. zi ∈ Rm, zi , p(zi|πi, φ) を解釈可能で領域固有の概念を符号化する潜在ベクトルとし、m は概念の数、大域パラメータ φ である。 0.81
The variable 𝑧𝑖 represents some clinically relevant concept that does not appear directly in the feature space, e g , estimated glomerular filtration rate (eGFR). 変数 zi は、例えば推定糸球体濾過率(egfr)のような特徴空間に直接現れない、臨床的に関係のある概念を表す。 0.68
The observed features 𝑥𝑖 ∈ R𝑑, are distributed as 𝑥𝑖 ∼ 𝑝(𝑥𝑖|𝑧𝑖,𝜓), with global parameters 𝜓. 観測された特徴 xi ∈ rd は、大域パラメータ ψ を持つ xi(xi|zi,ψ) として分布する。 0.76
In risk prediction, 𝑥𝑖 could be a patient’s creatinine, and low creatinine clearance is associated with low eGFR. リスク予測では、xiは患者のクレアチニンであり、低いクレアチニンクリアランスは低いeGFRと関連している。 0.63
Domain-Relevant Supporting Evidence: We enforce that the variable 𝑧 encodes domain-relevant concepts by using a well-defined forward model, governed by domain knowledge, that characterises how some subset of the observations 𝑥 are generated from 𝑧. ドメイン関連サポートエビデンス: 変数 z は、ドメイン知識が支配するよく定義されたフォワードモデルを用いて、z から観測 x のサブセットがどのように生成されるかを特徴付けることにより、ドメイン関連概念を符号化することを強制する。
訳抜け防止モード: ドメイン-関連サポートエビデンス : 変数 z がドメイン-関連概念を well-defined forward model を用いてエンコードすることを強制する。 ドメイン知識によって支配され 観測 x のサブセットが z から生成される様子を特徴づける。
0.72
For example, the forward model could be a physiological model that relates observable values to latent cardiac function [7], atlas-based image deformation models [8], physics models [14], or many others. 例えば、フォワードモデルは、可観測値と潜在性心機能 [7]、アトラスに基づく画像変形モデル [8]、物理モデル [14] などと関連する生理学的モデルである可能性がある。 0.84
We assume a prior 𝑝(𝜙) determined by domain understanding. ドメイン理解によって決定される事前の p(φ) を仮定する。 0.68
This modelling directly grounds 𝑧 to represent domain-relevant concepts by relating 𝑧 to 𝑥 via the forward model. このモデリングは、Z と x をフォワードモデルを介して関連づけることで、z をドメイン関連の概念として直接表す。 0.57
Consistency of 𝑧 and 𝜋 is enforced through the probabilistic model. z と π の整合性は確率モデルを通じて強制される。 0.71
We emphasise that the forward model need only characterise a sufficient subset of 𝑥 to constrain 𝑧; that is, we do not need to define a model to relate 𝑧 to all of 𝑥. 我々は、前進モデルは z を制約するために x の十分な部分集合のみを特徴づける必要があることを強調する;つまり、z を x のすべてに関連付けるモデルを定義する必要はない。 0.80
This is advantageous and broadens LPS’s applicability because 𝑥 may be very high-dimensional and thus it may be challenging to define a forward model governing 𝑥 in its entirety. これは、xが非常に高次元であり、x全体を支配するフォワードモデルを定義することが困難である可能性があるため、LPSの適用可能性を広げる。 0.69
In this work, we consider only smooth, continuous distributions for the domain knowledge, and a differentiable forward model. この研究では、ドメイン知識の円滑で連続的な分布と差別化可能なフォワードモデルのみを検討する。 0.74
In addition to being widely applicable, this enables tractable learning using gradient-based methods. 広く適用できるだけでなく、勾配に基づく手法による学習も可能である。 0.72
3.2 Learning For a given observation 𝑥, we use maximum a posteriori (MAP) estimates of the class label 𝑦, its associated probability 𝜋, and the supporting concepts 𝑧: 𝜋∗, 𝑧∗, 𝑦∗ = arg max𝜋,𝑧,𝑦 = arg max𝜋,𝑧,𝑦 3.2 与えられた観測 x に対する学習では、クラスラベル y の最大後続 (map) 推定、それに付随する確率 π および支援概念 z: π∗, z∗, y∗ = arg maxπ,z,y = arg maxπ,z,y を用いる。 0.89
(1) (2) Since this is intractable for complex parameter specifications, we approximate it. 1) (2) これは複素パラメータの仕様では難解であるため、近似する。 0.76
We use a training set D = {(𝑥1, 𝑦1), . トレーニングセット D = {(x1, y1) を使います。 0.75
. . , (𝑥𝑁 , 𝑦𝑁)} to learn informative point estimates for the parameters: (3) . . , (xn , yn)} パラメータの有意点推定を学ぶ: (3) 0.79
∫ 𝑝(𝜋, 𝑧, 𝑦|𝑥) 𝑝(𝜋, 𝑧, 𝑦|𝑥, 𝜙,𝜓)𝑝(𝜙)𝑝(𝜓)𝑑𝜙𝑑𝜓, ∫ 𝑝(𝜋, 𝑧, 𝑦|𝑥) 𝑝(𝜋, 𝑧, 𝑦|𝑥, 𝜙,𝜓)𝑝(𝜙)𝑝(𝜓)𝑑𝜙𝑑𝜓, 0.96
𝜙∗,𝜓∗ = arg max log 𝑝(𝜓, 𝜙|D), 𝜙,𝜓 and approximate MAP estimates as: 𝜋∗, 𝑧∗, 𝑦∗ = arg max𝜋,𝑧,𝑦 log 𝑝(𝜋, 𝑧, 𝑦|𝑥, 𝜙∗,𝜓∗). φ , z , y , arg max log p(π, z, y|x, φ ) , φ , φ , および近似 MAP の推定値: π , z , y , arg maxπ,z , y ログ p(π, z, y|x, φ , φ )。 0.84
(4) Since the true posterior 𝑝(𝑧, 𝜋|𝑥, 𝑦,𝜓, 𝜙) is intractable, we cannot directly use the Expectation Maximization (EM) algorithm to estimate model parameters, because EM requires calculating this (4) 真の後部p(z, π|x, y, φ) は可算であるため, モデルパラメータを推定するために期待最大化(英語版)(Expectation Maximization, EM)アルゴリズムを直接利用することはできない。 0.87
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA posterior exactly. ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA posterior。 0.85
We therefore resort to variational EM [5, 32] for parameter estimation: we define a variational approximation 𝑞(𝑧, 𝜋; 𝜃𝑞) to the true posterior with parameters 𝜃𝑞, and then construct a lower bound on the log evidence of data and model parameters as follows. したがって、パラメータ推定のための変分 EM [5, 32] に頼っている: 変分近似 q(z, π; sq) をパラメータ q で真後部まで定義し、次に、データおよびモデルパラメータのログ証拠に下限を次のように構築する。 0.83
First, we express the joint log likelihood of data and model parameters as: まず,データとモデルパラメータのジョイントログの確率を次のように表現する。 0.78
(5) log 𝑝(𝜙,𝜓, D) = log 𝑝(𝜙,𝜓, 𝑥 𝑁 1 ) , 𝑦𝑁 𝑁∑︁ 1 = log 𝑝(𝜙) + log 𝑝(𝜓)+ log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓) 𝑖=1 Then, we lower bound the data likelihood terms log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓) with Jensen’s inequality (full derivation in appendix), and obtain the following bound: 𝑁∑︁ E𝑞(cid:2) log 𝑝(𝜋) + log 𝑝(𝑦𝑖|𝜋) + log 𝑝(𝜓, 𝜙, D) ≥ log 𝑝(𝜓) + log 𝑝(𝜙)+ log 𝑝(𝑧|𝜋, 𝜙) + log 𝑝(𝑥𝑖|𝑧,𝜓)(cid:3) + 𝐻(𝑞)(cid:17), 𝑖=1 where 𝐻(𝑞) is the entropy of 𝑞. (5) log p(φ,ψ, d) = log p(φ,ψ, x n 1 ) , yn n ′ 1 = log p(φ) + log p(ψ)+ log p(xi, yi|φ,ψ) i=1 とジェンセンの不等式(付録における完全な導出)でデータ確率項 log p(xi, yi|φ,ψ) を低くし、次の境界を得る: n\ eq(cid:2) log p(π) + log p(yi|π) + log p(φ, φ, d) ≥ log p(ψ, φ) + log p(φ) + log p(z|π, φ) + log p(xi|z,φ)(cid:) + log p(xi|z,φ)(cid:) + h(cid) i=1 である。 0.89
We obtain MAP estimates by jointly maximising this lower bound w.r.t. この下界w.r.tを共同で最大化することでMAP推定を得る。 0.56
𝜙,𝜓, and 𝜃𝑞 using stochastic gradient approximations. 確率勾配近似を用いたφ, φ, θq。 0.71
This results in MAP estimates 𝜙∗,𝜓∗, and an approximate posterior 𝑞(·; 𝜃∗ 𝑞). この結果、MAP は φ∗, θ∗, および近似後 q(·; θ∗ q) を推定する。 0.71
3.3 MAP Inference For a new data point 𝑥, we seek the MAP estimates of 𝜋, 𝑧, and 𝑦: 3.3 MAP 推論 新しいデータポイント x に対して、π, z, y の MAP 推定を求める。 0.74
(cid:16) (6) (cid:16) (6) 0.82
𝜋∗, 𝑧∗, 𝑦∗ = arg max𝜋,𝑧,𝑦 log 𝑝(𝜋, 𝑧, 𝑦|𝑥, 𝜙∗,𝜓∗) = arg max𝜋,𝑧,𝑦 log 𝑝(𝜋) + log 𝑝(𝑦|𝜋)+ log 𝑝(𝑧|𝜋, 𝜙∗) + log 𝑝(𝑥|𝑧,𝜓∗). π∗, z∗, y∗ = arg maxπ,z,y log p(π, z, y|x, φ∗, φ∗) = arg maxπ,z,y log p(π) + log p(y|π) + log p(z|π, φ∗) + log p(x|z, φ∗) である。 0.96
(7) Depending on the form of each distribution, this maximization might not be solvable in closed form. (7) 各分布の形式に応じて、この最大化は閉じた形で解決できないかもしれません。 0.78
Computing the MAP estimates on a per-subject basis using EM or gradient ascent is often computationally inefficient with complex 𝑝(𝑥|𝑧,𝜓). EM やグラデーション・アセンションを用いて対象ごとに MAP の推定値を計算することは、しばしば複素 p(x|z, X) で計算的に非効率である。
訳抜け防止モード: EMまたは勾配法による主題ごとのMAP推定値の計算 しばしば計算的に非効率で、複素 p(x|z,...) で表される。
0.75
Instead, we use a network 𝑛(𝑥; 𝜃𝑛) → ( ^𝜋, ^𝑧) with parameters 𝜃𝑛 to efficiently approximate the MAP estimates such that: ^𝜋 ≈ 𝜋∗, ^𝑧 ≈ 𝑧∗, (8) ^𝑦 = 1 [ ^𝜋 ≥ 𝜂] ≈ 𝑦∗, (9) where 1[·] is an indicator function and 𝜂 is a threshold that depends on our desired tradeoff between recall and precision. 代わりにパラメータ θn を持つネットワーク n(x; θn) → ( ^π, ^z) を用いて MAP の推定値を効率的に近似し、 ^π > π∗, ^z > z∗, (8) ^y = 1 [ ^π ≥ η] > y∗, (9) ここで 1[·] は指標関数であり、η はリコールと精度の間の所望のトレードオフに依存する閾値である。 0.90
Equation 9 follows from the fact that 𝑝(𝑦|𝜋) is Bernoulli distributed. 方程式 9 は p(y|π) がベルヌーイ分布であることから従う。 0.76
We learn the parameters 𝜃𝑛 by maximising the MAP objective on the set of training data D = {(𝑥1, 𝑦1), . トレーニングデータD = {(x1, y1), の集合上でMAP目標を最大化することによりパラメータθnを学習する。 0.79
. . , (𝑥𝑁 , 𝑦𝑁)}. . . , (𝑥𝑁 , 𝑦𝑁)}. 0.85
Given a network 𝑛(𝑥𝑖 ; 𝜃𝑛) → ( ^𝜋𝑖, ^𝑧𝑖), we maximise: log 𝑝(^𝑧𝑖| ^𝜋𝑖, 𝜙∗) + log 𝑝(𝑥𝑖|^𝑧𝑖,𝜓∗)(cid:17), log 𝑝( ^𝜋𝑖) + log 𝑝(𝑦𝑖| ^𝜋𝑖)+ LMAP(𝜃𝑛) = which encourages simultaneous accurate risk prediction ^𝜋 and domain-relevant supporting evidence ^𝑧. ネットワーク n(xi ; θn) → ( ^πi, ^zi) が与えられると、最大化される: log p(^zi| ^πi, φ∗) + log p(xi|^zi,∗∗)(cid:17), log p(^πi) + log p(yi| ^πi) + lmap(θn) = 同時正確なリスク予測 ^π とドメイン関係の支持証拠 ^z を奨励する。 0.84
Consistency between the 𝑁∑︁ 𝑖=1 両者の一貫性 𝑁∑︁ 𝑖=1 0.54
(10) (cid:16) (10) (cid:16) 0.82
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA supporting evidence ^𝑧 and prediction ^𝜋 is enforced by the MAP objective from the probabilistic model used to train the inference model (via the term 𝑝(^𝑧| ^𝜋)). ACM CHIL ’21, April 8-10, 2021, virtual Event, USA support evidence ^z and prediction ^π is enforceed by the MAP objective from the probabilistic model used to training the inference model (via the term p(^z| ^π)。 0.87
To recover 𝜋∗, 𝑧∗, 𝑦∗ given a test example 𝑥, we directly use 𝑛(𝑥; 𝜃∗ 𝑛) to obtain the MAP estimates using (8), and (9). テスト例 x を与えられた π∗, z∗, y∗ を回復するために、n(x; θ∗ n) を直接使用して (8) と (9) を用いてMAP推定値を得る。 0.78
3.4 Discussion on Modelling Representation of domain knowledge: In some clinical settings, domain knowledge is typically represented using hard constraints or thresholds. 3.4 ドメイン知識のモデリング表現に関する議論: 臨床現場では、ドメイン知識は通常、厳しい制約やしきい値を用いて表現される。 0.71
For example, one definition of sepsis uses hard thresholds of a severity score [41]. 例えば、敗血症の定義は重症度スコア[41]のハードしきい値を使用する。 0.74
However, it is often the case that a continuous distribution is often a more realistic representation of the relationship between relevant concepts and the prediction task. しかし、連続分布が関連する概念と予測タスクの関係をより現実的な表現であることが多い。
訳抜け防止モード: ただし、多くの場合、その場合です。 連続分布は、しばしば、関連する概念と予測タスクの関係をより現実的に表現する。
0.72
For example, the relationship between severity scores and risk of mortality is well represented as a smooth, continuous function, since higher severity scores correlate with higher risk in a smooth fashion. 例えば、重症度スコアと死亡リスクの関係は、高い重症度スコアが滑らかな方法で高いリスクと相関するため、滑らかで連続的な機能としてよく表される。 0.66
Generality of the model: This class of models is appropriate for a range of binary classification problems because the Beta distribution is a flexible distribution for 𝜋 and the distributions 𝑝(𝑧|𝜋, 𝜙) and 𝑝(𝑥|𝑧,𝜓) can be specified as desired. モデルの一般性: ベータ分布はπ の柔軟な分布であり、分布 p(z|π, φ) と p(x|z, φ) を所望として指定することができるため、このモデルのクラスはバイナリ分類問題の範囲に適している。 0.86
Using a Dirichlet prior for 𝜋 and a multinomial for 𝑦 is a natural extension of this model to the multiclass scenario. π に対して dirichlet prior と y に対する multinomial を用いることは、このモデルの多クラスシナリオへの自然な拡張である。 0.81
In this paper, we focus on binary classification for clinical risk stratification. 本稿では,臨床リスク階層化のためのバイナリ分類に着目する。 0.80
Supporting Evidence vs. Evidence vs. のサポート。 0.79
Explanations: Since there is no guarantee that there is a causal link between ^𝑧 and the prediction ^𝜋, we refer to ^𝑧 as providing supporting evidence for the prediction rather than explaining the prediction. 説明: ^z と予測 ^π の間に因果関係があるという保証はないので、^z は予測を説明するよりも予測の裏付けとなる証拠を提供するものである。 0.84
4 RISK PREDICTION IN REAL-WORLD We instantiate and demonstrate LPS on the task of predicting a cardiovascular patient’s risk of mortality within the 6 months following a cardiac event. 4 リスク予測 in REAL-WORLD 心臓イベント後の6ヶ月以内に心血管疾患の死亡リスクを予測するタスクでLPSをインスタンス化し、実証します。 0.78
We show that LPS produces accurate risk predictions and informative supporting evidence. 我々は,LSSが正確なリスク予測と情報的支援証拠を生成することを示す。 0.51
Code implementing LPS is available at https://github.com/a niruddhraghu/lps. LPSを実装したコードはhttps://github.com/a niruddhraghu/lpsで入手できる。 0.46
Cardiovascular disease affects a large number of people worldwide, and is a major cause of mortality [4]. 心臓血管疾患は世界中で多くの人に影響を与え、死亡の大きな原因となっている[4]。 0.74
Predicting mortality risk for patients with cardiovascular disease is an important task that has received significant prior study in the medical literature [2, 11, 26, 29, 30, 34, 37]. 心血管疾患患者の死亡リスクの予測は,医学文献(2,11,26,29,30,34,37 )において重要な先行研究を受けてきた重要な課題である。 0.85
In this section, we focus on predicting patient risk and providing supporting evidence for predictions from electrocardiogram (ECG) and tabular data, which are observed for many cardiology patients in hospital settings. このセクションでは、患者リスクの予測と、病院の設定で多くの心臓病患者に観察される心電図(ECG)および表層データからの予測の裏付け証拠を提供することに焦点を当てます。 0.75
4.1 Data The dataset we use has 3728 patients from the Massachusetts General Hospital, is de-identified, and was obtained with IRB approval. このデータセットを使用する4.1データは、マサチューセッツ総合病院の3728人の患者で、識別不能となり、irbの承認を得た。
訳抜け防止モード: 4.1 データセットは マサチューセッツ総合病院の患者3728人です de - 識別され、irb承認で取得されます。
0.71
Each patient has undergone a cardiac catheterisation, which we treat as the index event. それぞれの患者は心臓カテーテル治療を受けており、指標イベントとして扱われる。 0.72
Each patient in the dataset has the following measurements and demographic features recorded: 12-lead electrocardiogram (ECG), heart rate (HR), systolic blood pressure, diastolic blood pressure, ethnicity, age, and gender. データセット内の各患者は、12鉛心電図(ECG)、心拍数(HR)、収縮性血圧、透析性血圧、民族性、年齢、性別などの測定および人口統計特性を有する。 0.73
These values are recorded within 3 days preceding catheterisation event. これらの値はカテーテル化イベントの3日前に記録される。 0.61
For each feature, the latest value before the cardiac catheterisation event それぞれの特徴について, 心臓カテーテル化イベント前の最新の値 0.73
MEDICINE A. Raghu, et al is used if multiple are available. 医薬 A. Raghu, et al は複数のものが利用可能であれば使われる。 0.66
Additionally, approximately 80% of the patients have creatinine values recorded within this 3 day period. さらに、患者の約80%がこの3日間以内に記録されたクレアチニン値を有する。 0.76
For those that do not, we use a standard value for a healthy patient (1 mg/dL). そうでない場合は、健康な患者(1mg/dL)に標準値を使用します。 0.79
From creatinine and the other features, we calculate the estimated glomerular filtration rate (eGFR) for each patient using a standard formula [23]. クレアチニンおよび他の特徴から、私達は標準式を使用して各患者のための推定糸球体ろ過率(eGFR)を計算します[23]。 0.77
The data are summarised in Figure 3. データは図3にまとめられている。 0.82
Each patient has outcome information: survival (𝑦 = 0) or mortality (𝑦 = 1) within 6 months of catheterisation (positive proportion 9.7%). 生存率 (y = 0) または死亡率 (y = 1) は、カテーテル治療の6ヶ月以内 (正の比率 9.7%) である。 0.74
4.2 Model Instantiation We let 𝑥 be the ECG and the tabular features, summarised in Figure 3, and 𝑦 the mortality outcome. 4.2 Model Instantiation x を ECG と表形式の特徴とし、図 3 に要約し、y を死亡率の結果とする。 0.77
The risk 𝜋 is the probability of 𝑦. リスク π は y の確率である。 0.72
We let 𝑧 ∈ R5 be a vector of clinically important quantities: systemic vascular resistance (𝑅), arterial compliance (𝐶), systole time (𝑇𝑠), diastole time (𝑇𝑑), and cardiac output (𝐶𝑂). z ∈ R5 を臨床的に重要な量のベクトルとする:全身血管抵抗性(R)、動脈適合性(C)、収縮時間(Ts)、ジアストール時間(Td)、および心臓出力(CO)。 0.74
These quantities are not observed for many patients; for some, such as 𝑅, 𝐶, and 𝐶𝑂, this is because accurate direct measurement is invasive [3], and estimating them in (non-invasive) physical exams is challenging [12]. これらの量は、r、c、coのような多くの患者には見られず、正確な直接測定が侵襲的であり、(非侵襲的)身体検査でそれらを推定することは困難である[12]。
訳抜け防止モード: これらの量は多くの患者には見られません ; r, c, co など これは正確な直接測定が侵入的である[3 ]ためである. 非侵襲的な)身体検査でそれらを推定します 12 の挑戦です.
0.83
When they are available, they play an important role in risk assessment. 利用可能な場合、リスクアセスメントにおいて重要な役割を果たす。 0.71
For example, when known, the values of 𝐶𝑂 and 𝑅 are used to guide the choice of therapeutic interventions for patients with heart failure [49]. 例えば、知られている場合、coとrの値は、心不全患者[49]に対する治療的介入の選択を導くために使用される。 0.74
4.3 Probabilistic Model Specification We now detail how each distribution in the probabilistic model is specified. 4.3 確率モデル仕様 確率モデル内の各分布をどのように指定するかを詳細に説明します。 0.71
We first define 𝑝(𝜋) = Beta(1.0, 1.0) and 𝑝(𝑦|𝜋) = Bernoulli(𝜋). まず p(π) = Beta(1.0, 1.0) と p(y|π) = Bernoulli(π) を定義する。 0.89
We impose a flat prior on 𝜓: 𝑝(𝜓) ∝ 1. 上述の平坦な前置詞は、p( ) {\displaystyle p(\,\,} である。 0.44
Specification for 𝑝(𝑧|𝜋, 𝜙): The interpretable latent variable 𝑧 is 5-dimensional, with components 𝑅, 𝐶,𝑇𝑠,𝑇𝑑, and 𝐶𝑂. p(z|π, φ): 解釈可能な潜在変数 z は 5 次元で、成分 R, C, Ts, Td, CO を持つ。 0.77
We denote the components of 𝑧 as 𝑧𝑚, 𝑚 = 1, . z の成分を zm, m = 1 と表現する。 0.57
. . , 5. We factor the distribution 𝑝(𝑧|𝜋, 𝜙) as follows: . . , 5. 分布 p(z|π, φ) は以下のようになる。 0.83
where LN is a log normal distribution, such that if 𝑋 ∼ LN(𝜇, 𝜎 2), then log 𝑋 ∼ N(𝜇, 𝜎 2). ここで LN はログ正規分布であり、X を LN(μ, σ2) とすると、X を N(μ, σ2) とする。 0.80
This mixture form for each component implies the following definition of the parameters: 𝑧𝑚,0}. 各コンポーネントのこの混合形式は、パラメータの次の定義を意味する: zm,0}。 0.77
, 𝜇𝑧𝑚,0, 𝜎 2 , 𝜇𝑧𝑚,0, 𝜎 2 0.88
𝜙𝑧𝑚 = {𝜇𝑧𝑚,1, 𝜎 2 𝑧𝑚,1 𝜙𝑧𝑚 = {𝜇𝑧𝑚,1, 𝜎 2 𝑧𝑚,1 0.81
This instantiation for the distribution has an intuitive interpretation of generating each latent variable 𝑧𝑚 for each patient as a mixture of two components, weighted by the patient’s risk of death. 分布のこのインスタンス化は、患者の死の危険性によって重みづけられた2つの成分の混合物として各患者のための各潜伏変数zmを生成する直感的な解釈を有する。 0.73
The two components then correspond to the distribution of the latent feature in the high and low risk cases. 2つのコンポーネントは、高リスクおよび低リスクのケースにおける潜在機能の分布に対応します。 0.79
Specification for 𝑝(𝜙): We define 𝜙𝜇 = {𝜇𝑧𝑚,0, 𝜇𝑧𝑚,1}5 , and 𝑚=1 define 𝜙𝜎 2 = {𝜎 2 𝑧𝑚,1}5 . p( φ): φμ = {μzm,0, μzm,1}5 と m=1 は φσ 2 = {σ 2 zm,1}5 を定義する。 0.81
For each of these means, we im, 𝜎 2 𝑚=1 𝑧𝑚,0 pose an independent, normally distributed prior, i.e. これらの手段のそれぞれに対して、 σ 2 m=1 zm,0 は独立であり、通常分配される。 0.80
: 𝑝(𝜇𝑧𝑚,𝑖) = N( ˜𝜇𝑧𝑚,𝑖, 0.012). : 𝑝(𝜇𝑧𝑚,𝑖) = N( ˜𝜇𝑧𝑚,𝑖, 0.012). 0.94
For each of the standard deviations, we specify a 𝑧𝑚,𝑖), which fixes 𝑧𝑚,𝑖 − ˜𝜎 2 𝑧𝑚,𝑖) = 𝛿(𝜎 2 delta function prior, i.e. 標準偏差のそれぞれに対して、zm,i − sσ 2 zm,i) = δ(σ 2 delta function prior,e.) となる zm,i − sσ 2 zm,i) を指定する。 0.73
: 𝑝(𝜎 2 𝑧𝑚,𝑖. : 𝑝(𝜎 2 𝑧𝑚,𝑖. 0.85
the values of these parameters to be ˜𝜎 2 これらのパラメータの値が σ 2 になる 0.84
For each 𝑧𝑚, we let 𝑝(𝑧𝑚|𝜋, 𝜙𝑧𝑚) have the following mixture form: 各 zm に対して、p(zm|π, φzm) を次の混合形式とする。 0.77
𝑝(𝑧|𝜋, 𝜙) = 𝑝(𝑅|𝜋, 𝜙𝑅)𝑝(𝐶|𝜋, 𝜙𝐶)𝑝(𝑇𝑠|𝜋, 𝜙𝑇𝑠) 𝑝(𝑧|𝜋, 𝜙) = 𝑝(𝑅|𝜋, 𝜙𝑅)𝑝(𝐶|𝜋, 𝜙𝐶)𝑝(𝑇𝑠|𝜋, 𝜙𝑇𝑠) 0.90
𝑝(𝑇𝑑|𝜋, 𝜙𝑇𝑑)𝑝(𝐶𝑂|𝜋, 𝜙𝐶𝑂). 𝑝(𝑇𝑑|𝜋, 𝜙𝑇𝑑)𝑝(𝐶𝑂|𝜋, 𝜙𝐶𝑂). 0.92
𝑝(𝑧𝑚|𝜋, 𝜙𝑧𝑚) = 𝜋LN(𝑧𝑚; 𝜇𝑧𝑚,1, 𝜎 2 𝑧𝑚,1)+ (1 − 𝜋)LN(𝑧𝑚; 𝜇𝑧𝑚,0, 𝜎 2 𝑧𝑚,0), 𝑝(𝑧𝑚|𝜋, 𝜙𝑧𝑚) = 𝜋LN(𝑧𝑚; 𝜇𝑧𝑚,1, 𝜎 2 𝑧𝑚,1)+ (1 − 𝜋)LN(𝑧𝑚; 𝜇𝑧𝑚,0, 𝜎 2 𝑧𝑚,0), 0.92
英語(論文から抽出)日本語訳スコア
Learning to Predict with Supporting Evidence エビデンスのサポートによる予測の学習 0.73
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
Figure 3: Multimodal data for each patient in our clinical dataset: a 12-lead ECG and 8 tabular features. 図3: 臨床データセットにおける各患者のマルチモーダルデータ: 12個の心電図と8個の表状特徴。 0.79
. We now specify how each of these parameters are determined for each component of 𝑧: • 𝑅: Take the roughly 20% of patients in the training dataset that have recorded values for 𝑅. . 私たちは今、これらのパラメータのそれぞれがzのコンポーネントごとにどのように決定されるかを指定します。 • R:Rの値を記録しているトレーニングデータセットの患者の約20%を取ります。
訳抜け防止モード: . これらのパラメータが z の各成分に対してどのように決定されるかを指定すると : • 𝑅 : rの値を記録するトレーニングデータセットの患者の約20%を取り上げます。
0.85
Consider the subset of these patients that died. 死亡した患者のサブセットを考えてみましょう 0.76
For these patients, fit a lognormal distribution to the resulting 𝑅 values. これらの患者に対しては、対数正規分布を結果のR値に適合させる。 0.65
The parameters of this fitted distribution become ˜𝜇𝑅,1 and ˜𝜎 2 . この適応分布のパラメータは、μr,1 および σ 2 となる。 0.73
Repeat this process for the subset of patients 𝑅,1 that lived; the resulting parameters are ˜𝜇𝑅,0 and ˜𝜎 2 𝑅,0 • 𝐶: No patients have measured values for 𝐶 (vascular compliance is never directly measured). このプロセスを生きたR,1患者のサブセットに繰り返します。結果として得られるパラメータは、Cの値を測定した患者はいません(血管のコンプライアンスは直接測定されることはありません)。 0.74
Approximately estimate the time constant 𝜏 = 𝑅𝐶 for each patient in the training dataset for which we have 𝑅 recorded. Rを収録したトレーニングデータセットにおいて,各患者の時間定数 τ = RC を推定した。 0.81
This is done by using the diastole relation from the two element Windkessel model [7] to relate the systolic and diastolic pressures to the time constant. これは、2つの要素Windkesselモデル[7]からのダイアストール関係を使用して、収縮圧力と拡張圧力を時間定数に関連付けることによって行われます。
訳抜け防止モード: これは、2つの要素Windkesselモデルからのダイアストール関係を使用して行われます[7]。 systolicおよびdiastolic圧力を時間定数に関連付けるため。
0.83
Divide this resulting time constant by 𝑅 to get approximate values for 𝐶. この結果の時間定数を R で割って C の近似値を得る。 0.83
Then, determine parameters by following the same process as with determining distributions for 𝑅. そして、R の分布を決定するのと同じプロセスに従ってパラメータを決定する。 0.85
• 𝑇𝑠: No patients have measured values for 𝑇𝑠. Ts: Tsの値を測定した患者はいません。 0.79
Approximately estimate these by using the fact that 𝑇𝑠 is approximately 1/3 of the duration of a heart beat (reciprocal of heart rate, recorded for all patients). Tsが心拍数(全患者に記録される心拍数の相反)の約1/3であるという事実を用いて、これらを推定する。 0.77
Having estimated these on the training dataset, follow the same process as with 𝑅 to determine parameters. トレーニングデータセットでこれらを推定すると、Rと同じプロセスに従ってパラメータを決定する。 0.85
• 𝑇𝑑: No patients have measured values for 𝑇𝑑. • Td: Tdの値を測定した患者はいません。 0.80
Approximately estimate these by using the fact that 𝑇𝑑 is approximately 2/3 of the duration of a heart beat (reciprocal of heart rate, recorded for all patients). Tdが心拍数(全患者に記録される心拍数の相反)の約2/3であるという事実を用いて、これらを推定する。 0.76
Having estimated these on the training dataset, follow the same process as with 𝑅 to determine parameters. トレーニングデータセットでこれらを推定すると、Rと同じプロセスに従ってパラメータを決定する。 0.85
• 𝐶𝑂: follow the same process as with determining 𝑅, for the ∼ 80% of patients in the training dataset that have recorded values. • CO:Rを決定するのと同じプロセスに従ってください。値は記録されたトレーニングデータセットの患者の80%です。 0.84
Specification for 𝑝(𝑥|𝑧,𝜓): We partition 𝑥 into two components: (1) 𝑥 (𝑔), which is generated from 𝑧 based on a known forward model 𝑔(𝑧); and (2) 𝑥 (𝑓 ), which is formed from 𝑧 based on a forward model 𝑓 (𝑧,𝜓) with parameters 𝜓 that cannot be specified with current domain knowledge, and is thus learned from data. p(x|z,ψ): 既知のフォワードモデルg(z)に基づいてzから生成されるx(g)と、現在のドメイン知識では指定できないパラメータψを持つフォワードモデルf(z,ψ)に基づいてzから形成されるx(f)の2つのコンポーネントにxを分割し、データから学習する。
訳抜け防止モード: p(x|z,...) の仕様 : x を 2 つの成分に分割する: ( 1 ) x ( g ) これは既知のフォワードモデル g(z ) に基づいて z から生成される。 そして、 ( 2 ) x ( f ) は、現在のドメイン知識では特定できないパラメータ t を持つフォワードモデル f ( z, i ) に基づいて z から生成される。 データから学習するのです
0.77
We let 𝑥 (𝑔) represent the vital signs (heart rate and blood pressures) and 𝑥 (𝑓 ) capture the remaining features. 我々は、x (g) がバイタルサイン(心拍数と血圧)を表し、x (f ) が残りの特徴をとらえる。 0.75
We define: 𝑝(𝑥 (𝑔)|𝑧,𝜓) = N(𝑔(𝑧), 0.12), where the known forward model 𝑔(·) has two components: (1) the two element Windkessel model to model the blood cretely, 𝑔(𝑧) → (𝐵𝑃sys,𝐵𝑃dias,(cid:99)𝐻𝑅), corresponding to the estimated pressures using a differential equation [7, 38, 48]; and (2) the definition of the heart rate based on systolic and diastolic times. 我々は、既知のフォワードモデルg(·)が2つの成分を有するp(x(g)|z, 0.12) = N(g(z), 0.12)と定義する:(1) 血液を離散的にモデル化する2つの要素Windkesselモデル、g(z) → (\BPsys,\BPdias,(cid :99)HR)、微分方程式を用いた推定圧力に対応する[7, 38, 48];(2) 対称性および拡張性時間に基づく心拍数の定義。 0.83
Conmeans for the end systolic pressure, end diastolic pressure, and heart rate respectively. 末期収縮圧, 末期拡張圧, 心拍数について検討した。 0.54
These are produced as follows: これらは以下のとおりである。 0.59
• Two element Windkessel model: this is a differential equation model that models the evolution of the blood pressure waveform as a function of the latent variables 𝑅, 𝐶,𝑇𝑠,𝑇𝑑, and 𝐶𝑂. • 2要素ウィンドケッセルモデル:これは、血圧波形の進化を潜在変数 R, C, Ts, Td, CO の関数としてモデル化する微分方程式モデルである。 0.76
This model separately characterises the systole phase, where blood is ejected out of the heart through the aorta as a result of ventricular contraction, and the diastole phase, where blood flows into the ventricles at the start of the next cardiac cycle. このモデルは、心室収縮の結果として大動脈を通して血液が心臓から排出される収縮期と、次の心臓周期の開始時に心室に血液が流入する拡張期を別々に特徴付ける。 0.75
We adopt the formulation from Catanho et al [7], and the blood pressure in each phase is modelled as follows: 𝑑𝑃(𝑡) + 𝑃(𝑡) = 𝐼(𝑡), (cid:16) 𝜋𝑡 (cid:17) (cid:40)𝐼0 sin 𝐶 𝑑𝑡 𝑅 during systole 𝑇𝑠 during diastole. 私たちはCatanho et al [7] の定式化を採用し、各相の血圧は次の通りモデル化される: dP(t) + P(t) = I(t), (cid:16) πt (cid:17) (cid:40)I0 sin C dt R during systole Ts during diastole。 0.85
0 𝐼(𝑡) = where 0 𝐼(𝑡) = どこに 0.79
𝐼(𝑡) represents the input blood flow, with a half-sinusoid model used for systole, and zero-input for diastole. i(t) は入力血流を表し、シストールには半シヌソイドモデル、ジアストールにはゼロ入力モデルを用いる。 0.72
The constant 𝐼0 is set based on the fact that over the systole phase, the entire blood flow must be equal to the stroke volume, 𝑆𝑉 . 定数I0は、シストール相において、全血流がストローク体積 SV に等しくなければならないという事実に基づいて設定される。 0.76
By definition, stroke volume can be expressed in terms of cardiac output and heart rate 𝐻𝑅 = (𝑇𝑠+𝑇𝑑)×𝐶𝑂 (cid:18) 𝜋𝑡 (cid:19) ∫ 𝑇𝑠 , and we obtain the following expression 𝑆𝑉 = 𝐶𝑂 60 for 𝐼0: 𝜋 𝐶𝑂 (𝑇𝑠 + 𝑇𝑑) (𝑇𝑠 + 𝑇𝑑)𝐶𝑂 =⇒ 𝐼0 = 𝑑𝑡 = 𝑆𝑉 = 𝐼0 sin 120𝑇𝑠 𝑇𝑠 60 𝑡=0 Note that 𝜋 in these equations refers to the mathematical constant, and not the patient’s risk of mortality. 定義によれば、ストローク体積は心拍出力と心拍数 HR = (Ts+Td)×CO (cid:18) πt (cid:19) > Ts で表すことができ、次の式 SV = CO 60 for I0: π CO (Ts + Td) CO = π I0 = dt = SV = I0 sin 120Ts Ts 60 t=0 これらの方程式のπは、患者の死亡リスクではなく、数学的定数を指す。 0.84
With these governing differential equations, we use the piecewise of time. これらの支配的な微分方程式では、時間の区分を用いる。 0.63
To obtain the desired quantities, 𝐵𝑃sys and𝐵𝑃dias, we solutions for the blood pressures in each phase from Catanho et al [7]. 所望の量を得るため,カタンホおよびアル[7]から各段階の血圧を算出した。
訳抜け防止モード: 所望の量を得る。 BPsys and BPdias, we solution for the blood pressures in each phase from Catanho et al [7 ]。
0.72
This solution specifies the blood pressure as a function step forward the solution for 4 cardiac cycles (each cycle is of duration 𝑇𝑠 +𝑇𝑑) so that it reaches steady state. このソリューションは、4つの心臓サイクル(各サイクルは持続時間Ts + Td)のための溶液を前進させる機能ステップとして血圧を指定します。 0.81
We then evaluate cycles to produce𝐵𝑃sys and𝐵𝑃dias. 次に BPsys と BPdias を生成するサイクルを評価します。 0.53
Note that the computation the solution at intervals of 𝑇𝑠 and 𝑇𝑑 for a further 6 cycles, and average the end systolic and diastolic pressures from these 6 . なお、ts と td の間隔での解の計算は、さらに 6 サイクルであり、この6 サイクルの終端シストリック圧力とジアストリック圧力の平均値である。
訳抜け防止モード: さらに6サイクルの Ts と Td の間隔で解を計算することに注意してください。 そしてこれらの6からの終わりのsystolicおよびdiastolic圧力の平均。
0.76
Evaluating this yields(cid:99)𝐻𝑅. この収率(cid:99)HRを評価する。 0.64
of these quantities is differentiable. これらの量の区別は可能である。 0.47
• Definition of heart rate: the heart rate in beats per minute can be defined as These two models together fully specify 𝑝(𝑥 (𝑔)|𝑧,𝜓). • 心拍数の定義: 1分当たりの拍動の心拍数は、これら2つのモデルで完全にp(x(g)|z, )を指定できる。 0.82
We then let 𝑝(𝑥 (𝑓 )|𝑧,𝜓) = N(𝑓 (𝑧,𝜓), 𝜎 2 𝑓 ), where 𝑓 (·) is a neural network with parameters 𝜓, which are learned as part of the LPS framework. 次に、p(x (f )|z, ) = N(f (z, ) σ 2 f ) とすると、f(...) はパラメータ ・ のニューラルネットワークであり、LPS フレームワークの一部として学習される。 0.75
For the ECG, we let 𝜎𝑓 = 5, and for the remaining features, we ECGの場合、σf = 5 とし、残りの機能については、 0.71
60 𝑇𝑠+𝑇𝑑 . 60 𝑇𝑠+𝑇𝑑 . 0.78
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA let 𝜎𝑓 = 0.5. ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA let σf = 0.5。 0.92
More details on network architecture are provided in Section 4.5 and in the appendix. ネットワークアーキテクチャの詳細は第4.5節と付録に記載されている。 0.69
4.4 Learning and Inference As described in Section 3, LPS has two stages: firstly, we obtain approximate MAP estimates ^𝜙∗ and ^𝜓∗ for model parameters (learning phase); secondly, we train another predictive model to efficiently output MAP estimates for latent model variables (inference phase), yielding a risk prediction and domain-relevant supporting evidence. 4.4 学習と推論 第3節で述べたように, LPS はモデルパラメータ (学習フェーズ) に対して近似MAP推定値 ^φ∗ と ^*∗ を得る; 次に,潜在モデル変数 (推論フェーズ) に対してMAP推定値を効率的に出力するために別の予測モデルを訓練し,リスク予測とドメイン関連支持エビデンスを生成する。 0.77
We use variational EM to derive approximate MAP estimates ^𝜙∗ and ^𝜓∗. 変動 EM を用いて近似 MAP 推定値 ^φ と ^ を導出する。 0.68
We use a deep neural network to model the variational the variational posterior as5 posterior 𝑞(𝑧, 𝜋|𝑥; 𝜃𝑞). 深部ニューラルネットワークを用いて、変分後続の変分後続のq(z, π|x; θq)をモデル化する。 0.68
Again denoting the components of 𝑧 as 𝑧𝑚, 𝑚 = 1, . 再び z の成分を zm, m = 1 として表す。 0.76
. . , 5, we use a mean field approximation and factor 𝑞(𝑧𝑚|𝑥)𝑞(𝜋|𝑥). . . , 5 では平均場近似と因子 q(zm|x)q(π|x) を用いる。 0.85
Each 𝑞(𝑧𝑚|𝑥) is 𝑚=1 defined to be a log normal distribution, and 𝑞(𝜋|𝑥) to be a Beta distribution. それぞれの q(zm|x) は m=1 で対数正規分布、q(π|x) はベータ分布と定義される。 0.86
The variational posterior network takes the ECG and tabular features as input, and produces mean and variance estimates for the posterior of each 𝑧𝑚, and Beta concentration parameter estimates for the posterior of 𝜋. 変分後ネットワークは、ECGおよび表形式の特徴を入力として取り、各zmの後部の平均および分散推定、πの後部に対するベータ濃度パラメータ推定を生成する。 0.73
We approximate the expectation in (6) by drawing a single sample from the variational posterior using the reparameterisation trick [18, 36], enabling end-to-end gradient-based training. 6) における予測を, リパラメトリゼーショントリック[18, 36] を用いて, 変分後部から単一サンプルを描画することにより, エンドツーエンドの勾配に基づくトレーニングを可能にした。 0.71
After running variational EM, we recover approximate MAP estimates ^𝜙∗ and ^𝜓∗. 変動 EM を実行した後、近似 MAP 推定 ^φ と ^φ を回復する。 0.58
For efficient MAP inference of latent variables, we train a MAP neural network 𝑛(𝑥; 𝜃𝑛) to take in the ECG and tabular features and directly output MAP estimates of 𝑧 and 𝜋. 潜伏変数の効率的なMAP推定のために、我々はMAPニューラルネットワークn(x; θn)を訓練し、ECGと表型特徴を取り入れ、zとπのMAP推定を直接出力する。 0.76
This is trained using the objective in Equation 10. これは10等式で目的を用いて訓練される。 0.75
Further details on learning and inference are in the appendix. 学習と推論に関するさらなる詳細は付録にある。 0.65
4.5 Neural Network Architectures We now outline the architectures for the three neural networks involved in this LPS instantiation: the learned forward model 𝑓 , the variational posterior 𝑞, and the MAP inference network 𝑛. 4.5 ニューラルネットワークアーキテクチャでは,学習フォワードモデルf,変分後q,マップ推論ネットワークnという,このlpsインスタンス化に関わる3つのニューラルネットワークのアーキテクチャを概説する。 0.70
• Learned forward model 𝑓 (𝑧,𝜓): this takes as input 𝑧 and uses fully connected layers for the tabular features, and a 1D convolutional network with upsampling layers for the ECG. • 学習された前方モデル f (z, ) は入力 z であり、表層の特徴に対して完全に連結された層と、ECG のアップサンプリング層を持つ 1D 畳み込みネットワークを使用する。 0.78
• Variational posterior 𝑞(𝑧, 𝜋|𝑥; 𝜃𝑞): this takes as input the ECG and tabular features, 𝑥. • 変分後 q(z, π|x; θq): これは ECG と表特徴 x を入力として取る。 0.84
The ECG is passed through a 1D convolution residual network, and the tabular features through a two layer fully connected network. ECGは1D畳み込み残余ネットワークを通過し、表層は2層完全に接続されたネットワークを介して特徴付けられる。 0.81
These representations are concatenated and passed through additional fully connected layers to produce mean and variance estimates for the posterior of each 𝑧𝑚 and Beta concentration parameter estimates for the posterior of 𝜋. これらの表現は連結され、追加の完全連結層を通過し、各zmの後方の平均および分散推定値とπの後方のベータ濃度パラメータ推定値を生成する。 0.76
• MAP inference network 𝑛(𝑥; 𝜃𝑛): this is a neural network with the same architecture as the variational posterior network, except that it directly outputs the MAP estimates of 𝑧 and 𝜋, rather than distributional parameters. • MAP推論ネットワーク n(x; θn): これは、分布パラメータではなく、zとπのMAP推定を直接出力することを除いて、変分後続ネットワークと同じ構造を持つニューラルネットワークである。 0.79
Further architectural and training details are in the appendix. さらなるアーキテクチャとトレーニングの詳細は付録にある。 0.67
4.6 Experiment Details Performance Baselines: We train a network with the same architecture as 𝑛(𝑥; 𝜃𝑛) to predict only the class label without the supporting evidence. 4.6 実験の詳細パフォーマンスベースライン:n(x;*n)と同じアーキテクチャのネットワークを訓練し、サポートする証拠なしにクラスラベルのみを予測します。 0.82
We use this to investigate whether simultaneously learning to predict and supporting evidence impacts the quality of the prediction. これを用いて,同時学習による予測と支援が予測の質に影響を及ぼすかどうかを検討する。 0.69
We use SENN [27] as a second baseline, SENN[27]を第2のベースラインとして使用します。 0.65
A. Raghu, et al which both predicts and provides information designed to supplement the prediction. a. raghu, et al はどちらも予測を補完するために設計された情報を予測し、提供する。 0.63
Ablation: As an ablation, we consider a variant of LPS that we call LPS-𝑞. アブレーション: アブレーションとして LPS-q と呼ばれる LPS の変種を考える。 0.73
Here, instead of training a separate MAP inference network 𝑛(𝑥; 𝜃𝑛), we take the variational posterior 𝑞(𝑧, 𝜋|𝑥; 𝜃𝑞) and use the mode of this posterior to obtain MAP estimates for 𝑧 and 𝜋. ここで、別のMAP推論ネットワークn(x; sn)を訓練する代わりに、変分後q(z, π|x; sq)を取り、この後部のモードを使用してzおよびπのMAP推定値を得る。 0.79
The modes of the respective log normal and Beta distributions have simple analytical forms in terms of the distributional parameters that are output by the variational posterior network, so are easy to compute. 各ログ正規分布とベータ分布のモードは、変動後続ネットワークによって出力される分布パラメータの観点から単純な解析形式を持つので、計算が容易である。 0.86
This simpler variant does not require training a separate MAP inference network. この単純な変種は、別々のMAP推論ネットワークをトレーニングする必要はない。 0.68
Evaluation: We use the median/half IQR for ten runs, splitting the dataset into ten train/validation/tes t sets (60%/20%/20%), and Welch’s 𝑡-test for statistical significance. 評価: 中央値/半値のIQRを10回のランで使用し、データセットを10のトレイン/バリデーション/テストセット(60%/20%/20%)に分割します。 0.71
4.7 Results Table 1 summarises the results on the clinical dataset. 4.7 結果表 1 臨床データセットの結果を要約する。 0.83
While we focus on analysing the supporting evidence, we also find that LPS, SENN, and the baseline perform comparably in terms of AUC, and that LPS-𝑞 performs worse than LPS, justifying the use of the MAP inference network. 裏付けとなる証拠の分析に焦点をあてる一方で,LPS,SENN,およびベースラインはAUCの観点から比較可能であり,LPS-qはLPSよりも悪い性能を示し,MAP推論ネットワークの使用を正当化する。 0.84
This is an expected result, since the variational posterior must model the entire posterior distribution over latents, and not just the modes. これは期待された結果である、なぜなら変分後尾は、モードだけでなく、潜伏上の全後方分布をモデル化しなければならないからである。 0.56
Thus, it may sacrifice accuracy in recovering the modes to better represent the distribution as a whole. したがって、分布全体をより良く表現するためにモードを復元する精度を犠牲にする可能性がある。 0.73
Accuracy of supporting evidence. We first compare the accuracy of the supporting information for the ∼ 80% of patients that have 𝐶𝑂 measurements. 証拠の正確さ。 まず,CO測定を行った患者の80%の患者を対象に,支援情報の精度を比較した。 0.73
We compare how the estimated 𝐶𝑂 compares to the measured 𝐶𝑂 by splitting 𝐶𝑂 into two groups using a cutoff of 4 L/min, which corresponds to the lower limit of normal range for 𝐶𝑂 [15] – a clinical standard that informs practice. COを4L/minのカットオフを使用して2つのグループに分割することにより、推定COが測定されたCOと比較する方法を比較します[15] - 実践を知らせる臨床基準。 0.75
Computing the resulting F1 score, we observe that LPS estimates do a good job of differentiating between patients who have low and normal cardiac outputs (Table 1). 結果のF1スコアを計算すると、LPS推定は低心拍数と正常心拍数の患者を区別する良い仕事をしていることがわかります(表1)。 0.72
Since 𝐶𝑂 is usually estimated using invasive procedures and is important in clinical decision making, the fact that LPS can (non-invasively) identify when 𝐶𝑂 is above/below a meaningful threshold is clinically valuable. 通常、COは侵襲的手順を用いて推定され、臨床的意思決定において重要であるため、LPSがCOが有意な閾値以上であれば(非侵襲的に)識別できるという事実は臨床的に有用である。 0.63
Too few patients have measurements of the other latent variables (cid:99)𝐻𝑅 (from 𝑇𝑠 and 𝑇𝑑) and the blood pressures(cid:99)𝐵𝑃 from the estimated to enable a meaningful direct comparison. 他の潜伏変数 (cid:99)HR (Ts, Td) と血圧 (cid:99)BP) を推定値から測定し, 有意な直接比較を可能にした患者は少なくない。 0.88
In lieu of doing this, we use the known forward model to reconstruct both the heart rate latent values. これを行う代わりに、既知のフォワードモデルを使用して、心拍潜伏値の両方を再構築します。 0.67
We observe high coefficient of determination between the reconstructed quantities and the measured values for HR and BP (Table 1). 再構成量とHRおよびBPの測定値との間に高い決定係数を観測する(表1)。 0.76
This suggests effective recovery of the latent parameters. これは潜在パラメータの効果的な回復を示唆する。 0.63
As further analysis, Figure 4 visualises the true blood pressures and heart rate, and the reconstructed estimates from the forward model using the inferred latent concepts from the model. さらに分析すると、図4は真の血圧と心拍数を視覚化し、モデルから推論された潜伏概念を使用して前方モデルからの推定を再構築します。 0.78
As can be seen, these show good agreement, indicating successful recovery of the latent factors. ご覧の通り、これは良好な一致を示し、潜在要因の回復が成功したことを示している。 0.59
The median absolute error in recovering quantities was: BP-systolic: 1.62 mmHg; BP-diastolic: 2.92 mmHg; HR: 4.75 bpm. 質量回復における絶対誤差は、BP-systolic: 1.62 mmHg; BP-diastolic: 2.92 mmHg; HR: 4.75 bpmである。 0.70
Consistency of predictions and supporting evidence. 予測および支持証拠の一貫性。 0.79
Figure 5 shows histograms for the latent concepts for patients at high and low predicted risk (top and bottom 25% respectively). 図5は、高いリスクと低いリスク(それぞれトップとボトム25%)の患者に対する潜在概念のヒストグラムを示しています。 0.80
On average, patients at the highest risk of adverse outcomes have a lower cardiac 平均すると、副作用のリスクが高い患者は心臓が低くなります。 0.75
英語(論文から抽出)日本語訳スコア
Learning to Predict with Supporting Evidence エビデンスのサポートによる予測の学習 0.73
Method Baseline SENN LPS LPS-𝑞 メソッドベースラインSENN LPS LPS-q 0.76
Thresholded 𝐶𝑂 F1 Score 𝑅2(𝐻𝑅,(cid:99)𝐻𝑅) N/A N/A N/A N/A 0.78 ± 0.01 0.83 ± 0.01 0.78 ± 0.04 0.75 ± 0.04 CO F1 Score R2(HR,(cid:99)HR) N/A N/A N/A N/A N/A 0.78 ± 0.01 0.83 ± 0.01 0.78 ± 0.04 0.75 ± 0.04 0.59
𝑅2(𝐵𝑃,(cid:99)𝐵𝑃) N/A N/A 0.90 ± 0.03 0.71 ± 0.02 R2(BP,(cid:99)BP) N/A N/A 0.90 ± 0.03 0.71 ± 0.02 0.66
the heart rate (cid:99)𝐻𝑅 and blood pressure(cid:99)𝐵𝑃 from the supporting evidence, the reconstructions capture most of the variance of Table 1: LPS predictions and supporting evidence are accurate. 支持証拠からの心拍数(cid:99)HRおよび血圧(cid:99)BPは、再建表1のばらつきの大部分をキャプチャし、LPS予測と支持証拠は正確である。 0.81
Analysing the supporting evidence factor 𝐶𝑂 shows that LPS effectively estimates when this value is below/above a meaningful clinical threshold. 支持証拠因子COの分析は、LPSがこの値が有意義な臨床基準を下回る/上回る場合に効果的に推定されることを示しています。
訳抜け防止モード: 支持エビデンス因子COの分析 LPSは、この値が有意義な臨床閾値以下であるときに、効果的に見積もっている。
0.66
Using the forward model to reconstruct the true values, suggesting that LPS has captured useful information in this evidence space. フォワードモデルを用いて真価を再構成し、lpsはこの証明空間で有用な情報を捉えたことを示唆する。
訳抜け防止モード: フォワードモデルの使用 真の価値を再構成し LPSはこの証拠空間で有用な情報を捉えたと示唆している。
0.74
In addition, LPS predictions are accurate (comparable AUC to the baseline and SENN [27]). さらに、LPS予測は正確である(ベースラインとSENN[27]と比較して)。 0.60
Bolded values are significant at 𝑝 < 0.05. 太字値は p < 0.05 で有意である。 0.61
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
AUC 0.75 ± 0.02 0.73 ± 0.02 0.74 ± 0.02 0.70 ± 0.01 AUC 0.75 ± 0.02 0.73 ± 0.02 0.74 ± 0.02 0.70 ± 0.01 0.55
Figure 4: Reconstructing observed tabular features using the forward model. 図4:前方モデルを用いた観測表の特徴の再構成。 0.77
We visualise the true blood pressures and heart rate vs. the reconstructed blood pressures and heart rate calculated from the inferred latent concepts using the forward model. 前方モデルを用いて推定潜伏概念から算出した真の血圧と心拍数と再建された血圧と心拍数を可視化します。 0.80
The true and reconstructed quantities show good agreement, indicating successful recovery of the latent factors. 真の再構成量は良好な一致を示し、潜在的な要因の回復に成功したことを示す。 0.57
Figure 5: Supporting evidence concepts and risk predictions have distributions that are in alignment with domain understanding. 図5: エビデンスの概念とリスク予測のサポートには、ドメインの理解と一致する分布があります。 0.71
Empirical distributions (histograms) of clinically meaningful factors for patients in the upper and lower quartiles of predicted risk are in accordance with clinical domain knowledge. リスクが予測される上層および下層の患者に対する臨床的に有意な因子の実証的分布(ヒストグラム)は、臨床領域の知識に従っている。 0.78
Such agreement is important for supporting evidence and predictions to be trusted by clinicians [42, 45]. この合意は臨床医 [42, 45] に信頼される証拠や予測を支持する上で重要である。 0.80
output and higher systemic vascular resistance relative to those who do not have adverse outcomes [44]. 有害な結果を持っていない人に対する出力およびより高い全身性血管抵抗[44]。 0.73
This is recovered by LPS, achieving consistency of predictions and supporting evidence with clinical domain knowledge. これはLPSによって回復され、予測の一貫性を達成し、臨床ドメイン知識を持つ証拠をサポートする。 0.54
Comparing supporting evidence. 支持証拠を比較する。 0.68
Figure 6 shows supporting evidence for model decisions from LPS and attributions from Integrated Gradients [43], a commonly used feature attribution method, on the baseline. 図6は、LPSからのモデル決定と、一般的に使用される特徴属性法である統合グラディエント[43]からの帰属の証拠をベースライン上で示す。 0.73
Normal ranges for the concepts were derived from literature [19, 39, 44]. 概念の正常な範囲は文学 [19, 39, 44] に由来する。 0.75
We focus on showing data for 𝐶𝑂 and 𝑅, since these are most meaningful to clinicians and there are therapeutic 臨床医にとって最も有意義であり、治療法もあるため、COとRのデータを示すことに重点を置いています。
訳抜け防止モード: COとRのデータ表示に重点を置いています。 臨床医や患者にとって 治療法があります
0.77
interventions for modifying them [49]. 修正のための介入[49]. 0.55
We compare LPS and Integrated Gradients for two patients, one at high risk of death (top), and one at low risk of death (bottom). 死亡リスクが高い患者(上)と死亡リスクが低い患者(下)の2例について,LPSと統合勾配を比較した。 0.75
LPS produces supporting evidence that is clinically understandable, specifically that the patient shown at the top is at high risk and has elevated 𝑅 and low 𝐶𝑂. LPSは臨床的に理解可能な支持的な証拠を産み出しており、特に上部に示される患者はリスクが高く、Rが上昇し、COが低下している。
訳抜け防止モード: LPSは臨床的に理解できる証拠、特にその証拠を産み出す 上部に示される患者はリスクが高く、Rが上昇し、COが低下する。
0.79
These statements give insights beyond the feature space alone. これらのステートメントは、機能空間だけを超えて洞察を与えます。 0.54
In contrast, the baseline of Integrated Gradients reveals certain features in the tabular data and the ECG that contributed to the decision, but the attributions are not as readily actionable as the supporting evidence from LPS. 対照的に、統合グラディエントのベースラインは、この決定に寄与した表データとECGの特定の特徴を明らかにしているが、その属性はLPSの支持する証拠ほど容易には実行できない。 0.71
For example, the patient in Figure 6 had a normal heart rate (HR) of 80 bpm (normal 例えば、図6の患者は、通常の心拍数(HR)が80 bpm(正常)であった。 0.84
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
A. Raghu, et al A. Raghu, et al 0.99
Figure 6: Supporting evidence from LPS is comprehensible and provides actionable insights. 図6: LPSからのエビデンスのサポートは理解でき、実行可能な洞察を提供する。 0.61
In comparison to attribution methods such as Integrated Gradients, LPS produces supporting evidence that is clinically meaningful and provide insights beyond the input feature space. 統合グラデーションなどの帰属方法と比較して、LPSは臨床的に意味のあるエビデンスを生成し、入力機能空間を超えて洞察を提供します。 0.63
For a high risk patient (top), LPS produces actionable supporting evidence, namely that that 𝐶𝑂 and 𝑅 (which are hard to observe and important in therapeutic decisions) lie outside their normal ranges. リスクの高い患者(トップ)にとって、LSSは、COとR(治療決定において観察が困難で重要なもの)が正常な範囲外にあるという、実行可能な支持証拠を生み出す。 0.71
For a low risk patient (bottom), LPS recovers supporting evidence factors within their normal ranges. 低いリスクの患者(下)のために、LPSは正常な範囲内の支持の証拠の要因を回復します。 0.65
This supporting evidence for a prediction is actionable and less ambiguous than feature attribution methods such as Integrated Gradients, especially when applied to a high-dimensional input such as the ECG. この予測の裏付けとなる証拠は、特にECGのような高次元入力に適用する場合、統合勾配のような特徴帰属法よりも実行可能で曖昧ではない。 0.64
Figure 7: LPS supporting evidence could provide actionable insights on challenging, borderline cases. 図7:LPSサポートの証拠は挑戦的な、ボーダーライン場合の実用的な洞察を提供することができます。 0.52
The patient shown had an adverse outcome (𝑦 = 1), but was predicted by LPS to be at low risk – a misclassification. 患者は、副作用(y = 1)があったが、LPSによって低リスクであると予測された - 誤分類。 0.74
Analysing the weak supporting evidence for this decision adds more insight. この決定に対する弱い支持証拠を分析することは、さらなる洞察をもたらす。 0.64
range: 60-100 bpm), yet the HR feature contributed significantly to the prediction of high risk. 範囲: 60-100 bpm) であったが,HRの特徴は高いリスクの予測に大きく寄与した。 0.72
It is unlikely that knowing that the HR was a factor in the model’s prediction would lead to any action on the part of a clinician. HRがモデルの予測の要因であることを知ることは、臨床医のあらゆる行動につながる可能性は低い。 0.61
For the low risk patient (bottom), LPS’s supporting evidence for a prediction of low risk is accompanied by the inference that the patient has normal 𝐶𝑂 and 𝑅. 低リスク患者(下)のために、低リスクの予測のためのLPSの支持証拠は、患者が正常なCOとRを有するという推論を伴う。 0.72
Integrated gradients analysis reveals that most of the tabular features and the QRS complex of the ECG contribute to a low risk prediction, but the HR, recorded as 60 bpm, elevates the patient’s risk. 統合勾配分析により、ECGの表層機能およびQRS複合体の大部分が低リスク予測に寄与することが明らかになったが、HRは60bpmとして記録され、患者のリスクを高める。 0.72
For a clinician who is not an ML practitioner, it may be challenging to disentangle these different factors and thus understand/trust the model’s predictions using the Integrated Gradients attribution. ML実践者ではない臨床医にとって、これらの異なる要因を解消し、統合的グラディエント属性を使用してモデルの予測を理解し、信頼することは困難である。 0.68
LPS supporting evidence could provide therapeutic insight on challenging examples. LPSサポートの証拠は、困難な例に対する治療的洞察を提供する。 0.56
In a case where LPS makes a misclassification on a hard example, Figure 7, the weakness of the supporting evidence could be clinically informative. 図7の硬い例でLPSが誤分類を行う場合、支持証拠の弱点は臨床的に有益である可能性があります。 0.75
LPS predicted that this patient is at low risk, yet they had an adverse outcome (a misclassification). LPSは、この患者はリスクが低いが、悪い結果(誤分類)があると予測した。 0.74
The supporting evidence is that the patient had normal range values for 𝑅 and 𝐶𝑂, which are only just inside the normal range. 支持する証拠は、患者が通常の範囲のちょうど内側にあるRとCOの正常範囲値を持っていたことです。 0.76
This could inform the clinician that although the patient was predicted to be at low risk, the patient might benefit from additional monitoring. これにより、患者はリスクが低いと予測されたが、追加の監視の恩恵を受ける可能性があると臨床医に知らせることができた。
訳抜け防止モード: これは臨床医に リスクは低いと予測されたが,追加モニタリングの恩恵を受ける可能性が示唆された。
0.72
Such explanatory insights are challenging to obtain from existing explainability methods. このような説明的洞察は、既存の説明可能性手法から得ることが困難である。 0.48
Patient-specific insights from supporting evidence. 証拠支援からの患者固有の洞察。 0.67
Figure 8 compares supporting evidence for a pair of patients predicted to be at high risk. 図8は、リスクが高いと予測された患者のペアの支持証拠を比較します。 0.73
The predictions and supporting evidence are clinically meaningful: on the left, the patient has high 𝑅, and on the right, 予測と支持の証拠は臨床的に有意義です。左側は患者の高いRを持ち、右側は患者です。 0.68
英語(論文から抽出)日本語訳スコア
Learning to Predict with Supporting Evidence エビデンスのサポートによる予測の学習 0.73
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
Figure 8: LPS supporting evidence offers patient-specific insights to clinicians. 図8:LPSサポート証拠は臨床医に患者固有の洞察を提供します。 0.66
For two patients who were predicted to be at high risk ( ^𝜋 > 0.8) LPS supporting evidence captures different factors contributing to risk, potentially informing clinicians of the most suitable patient-specific medical interventions. リスクが高いと予測された2人の患者(^π > 0.8)は、エビデンスを支持するlpsはリスクに寄与するさまざまな要因を捉え、患者固有の医療介入に最適な臨床医に知らせる可能性がある。 0.65
the patient has low 𝐶𝑂, both of which are typically indicative of poor cardiovascular health [15, 44]. 患者は低いCOを持ち、どちらも通常、心臓血管の健康状態が悪いことを示す[15, 44]。 0.77
LPS supporting evidence is well-differentiated on a per-patient basis and could inform a clinician that the left patient could benefit from medication to reduce 𝑅, and the right patient could benefit from medication to increase 𝐶𝑂. LPS支持の証拠は患者ごとによく区別され、左の患者はRを減らす薬から利益を得ることができ、右の患者はCOを高める薬から利益を得ることができることを臨床医に知らせることができます。 0.67
5 CONCLUSION To assist human experts in decision making, machine learning models should produce both accurate predictions and supporting evidence for these predictions. 5 結論 意思決定の専門家を支援するために、機械学習モデルは正確な予測とこれらの予測の証拠の両方を生成するべきです。 0.71
In healthcare, this consideration is particularly important since clinicians draw significantly on medical principles in their decision making, and therefore can act most effectively on predictions that are accompanied by clinically relevant supporting evidence. 医療においては、臨床医は意思決定において医療原則に大きく依存するため、臨床的に関係する支持証拠を伴う予測に最も効果的に作用できるため、この考慮は特に重要である。 0.73
To tackle this problem, we propose a method, Learning to Predict with Supporting Evidence (LPS), to construct models that provide both predictions and supporting evidence using clinically-relevant concepts. この問題を解決するために,臨床関連概念を用いて予測と証拠の双方を提供するモデルを構築するためのLPS(Learning to Predict with Supporting Evidence)を提案する。 0.87
We demonstrate that LPS produces accurate predictions and comprehensible supporting evidence for predictions on a realworld medical dataset. 我々は,lpsが現実の医療データセットにおける予測の正確な予測と理解可能な証拠を生成することを実証する。 0.59
LPS relies on domain knowledge to inform (1) the choice of concepts for supporting evidence, and (2) how these concepts are related to the observed data and the prediction. LPSは,(1)エビデンスを支える概念の選択,(2)これらの概念が観測データや予測とどのように関連しているかを,ドメイン知識に頼っている。 0.87
In medicine, there is a tremendous amount of domain knowledge of this form, obtained from decades of medical practice and modelling. 医学では、数十年の医療実践とモデリングから得られたこの形態の膨大な量のドメイン知識があります。 0.82
This includes probabilistic models for imaging and disease progression, physiological models for signals, and more [7, 8, 48]. これには、イメージングおよび疾患進行の確率モデル、シグナルの生理学的モデル、およびより[7, 8, 48]が含まれます。
訳抜け防止モード: これには、画像と疾患進行の確率モデル、信号の生理学的モデルが含まれる。 さらに [7, 8, 48]
0.79
LPS could be applied to other prediction problems by leveraging such medical domain knowledge, helping to further the trustworthiness and actionability of machine learning models for healthcare. LPSは、そのような医療領域の知識を活用することで他の予測問題に適用でき、医療における機械学習モデルの信頼性と行動可能性を高めるのに役立つ。 0.64
ETHICS STATEMENT This work represents an initial step towards improving trustworthiness in ML models using supporting evidence. ETHICS STATEMENT この作業は、サポートの証拠を使用してMLモデルの信頼性を向上させるための最初のステップを表します。
訳抜け防止モード: ETHICS STATEMENT MLモデルにおける信頼性向上に向けた最初のステップです。 裏付けの証拠を使って
0.64
More testing of the method would be necessary prior to any real-world deployment. 実際のデプロイの前に、メソッドのさらなるテストが必要になるでしょう。 0.64
If the supporting evidence produced by the method ends up misleading care givers it could lead to poor decisions. この方法によって生成された支持証拠が誤解を招くケア提供者に終わると、それは悪い決定につながる可能性があります。
訳抜け防止モード: 方法による支持証拠が,誤った介護者の手当に終わる場合 悪い決断に繋がるかもしれない
0.67
It is important that prior to any deployment, extensive user studies are performed in order to detect such issues and prevent potential negative impact. デプロイに先立って,このような問題を検出し,潜在的な悪影響を防止するために,広範なユーザ調査が行われることが重要である。 0.68
ACKNOWLEDGEMENTS This work was supported in part by funds from Quanta Computer, Inc. ACKNOWLEDGementS この研究はQuanta Computer, Inc.の資金によって部分的に支援された。 0.64
The authors thank the members of the Clinical and Applied Machine Learning group and the Computational Cardiovascular Research group at MIT for all their helpful comments and advice. 著者らは、臨床および応用機械学習グループとMITのComputational Cardiovascular Researchグループのメンバーに、すべての有益なコメントとアドバイスを感謝している。 0.79
REFERENCES [1] Maruan Al-Shedivat, Avinava Dubey, and Eric P Xing. REFERENCES [1] マルアン Al-Shedivat、Avinava Dubey、Eric P Xing。 0.72
2017. Contextual explanation networks. 2017. 文脈説明ネットワーク。 0.76
arXiv preprint arXiv:1705.10301 (2017). arXiv preprint arXiv:1705.10301 (2017) 0.84
[2] Elliott M Antman, Marc Cohen, Peter JLM Bernink, Carolyn H McCabe, Thomas Horacek, Gary Papuchis, Branco Mautner, Ramon Corbalan, David Radley, and Eugene Braunwald. [2] Elliott M Antman, Marc Cohen, Peter JLM Bernink, Carolyn H McCabe, Thomas Horacek, Gary Papuchis, Branco Mautner, Ramon Corbalan, David Radley, Eugene Braunwald 0.78
2000. The TIMI risk score for unstable angina/non–ST elevation MI: a method for prognostication and therapeutic decision making. 2000. 不安定な狭心症/非ST上昇に対するTIMIリスクスコア:予後および治療上の意思決定のための方法。 0.72
Jama 284, 7 (2000), 835–842. Jama 284, 7 (2000), 835–842。 0.88
[3] J Bajorat, R Hofmockel, DA Vagts, M Janda, B Pohl, C Beck, and G NoeldgeSchomburg. J Bajorat氏、R Hofmockel氏、DA Vagts氏、M Janda氏、B Pohl氏、C Beck氏、G NoeldgeSchomburg氏。 0.70
2006. Comparison of invasive and less-invasive techniques of cardiac output measurement under different haemodynamic conditions in a pig model. 2006. 豚モデルにおける異なる血行動態条件下での心臓出力測定の侵襲的および低侵襲的手法の比較 0.81
European journal of anaesthesiology 23, 1 (2006), 23–30. european journal of anaesthesiology 23, 1 (2006), 23–30。 0.85
[4] Emelia J Benjamin, Paul Muntner, Alvaro Alonso, Marcio S Bittencourt, Clifton W Callaway, April P Carson, Alanna M Chamberlain, Alexander R Chang, Susan Cheng, Sandeep R Das, et al 2019. Emelia J Benjamin, Paul Muntner, Alvaro Alonso, Marcio S Bittencourt, Clifton W Callaway, April P Carson, Alanna M Chamberlain, Alexander R Chang, Susan Cheng, Sandeep R Das, et al 2019。 0.76
Heart disease and stroke Statistics-2019 update a report from the American Heart Association. 心臓病と脳卒中統計2019は、american heart associationのレポートを更新した。 0.69
Circulation (2019). 循環(2019年)。 0.74
[5] JM Bernardo, MJ Bayarri, JO Berger, AP Dawid, D Heckerman, AFM Smith, M West, et al 2003. JM Bernardo氏、MJ Bayarri氏、JO Berger氏、AP Dawid氏、D Heckerman氏、AFM Smith氏、M West氏など2003年。 0.78
The variational Bayesian EM algorithm for incomplete data: with application to scoring graphical model structures. 不完全なデータのための変動ベイズEMアルゴリズム:グラフィカルモデル構造をスコアリングするためのアプリケーション。 0.75
(2003). [6] Carrie J Cai, Emily Reif, Narayan Hegde, Jason Hipp, Been Kim, Daniel Smilkov, Martin Wattenberg, Fernanda Viegas, Greg S Corrado, Martin C Stumpe, et al 2019. (2003). 6] Carrie J Cai, Emily Reif, Narayan Hegde, Jason Hipp, Been Kim, Daniel Smilkov, Martin Wattenberg, Fernanda Viegas, Greg S Corrado, Martin C Stumpe, et al 2019。 0.84
Human-centered tools for coping with imperfect algorithms during medical decision-making. 医療意思決定における不完全なアルゴリズムに対処するための人間中心ツール。 0.58
In Proceedings of the 2019 CHI Conference on Human Factors in Computing Systems. 2019 chi conference on human factors in computing systemsの開催中である。 0.72
1–14. [7] Marianne Catanho, Mridu Sinha, and Varsha Vijayan. 1–14. 7] Marianne Catanho、Mridu Sinha、Varsha Vijayan。 0.66
2012. Model of aortic blood flow using the windkessel effect. 2012. ウィンドケッセル効果を用いた大動脈血流モデル 0.76
(2012). [8] Adrian V Dalca, Evan Yu, Polina Golland, Bruce Fischl, Mert R Sabuncu, and Juan Eugenio Iglesias. (2012). 8]Adrian V Dalca, Evan Yu, Polina Golland, Bruce Fischl, Mert R Sabuncu, Juan Eugenio Iglesias。 0.78
2019. Unsupervised deep learning for Bayesian brain MRI segmentation. 2019. ベイズ脳MRIにおける教師なし深層学習 0.78
In International Conference on Medical Image Computing and Computer-Assisted Intervention. international conference on medical image computing and computer-assisted intervention にて発表。 0.81
Springer, 356–365. [9] Maria De-Arteaga, Riccardo Fogliato, and Alexandra Chouldechova. 356-365頁。 9] Maria De-Arteaga、Riccardo Fogliato、Alexandra Chouldechova。 0.60
2020. A Case for Humans-in-the-Loop: Decisions in the Presence of Erroneous Algorithmic Scores. 2020. human-in-the-loop: 誤ったアルゴリズムスコアの存在下での決定。 0.73
In Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems. 2020 chi conference on human factors in computing systems で開催されている。 0.76
Association for Computing Machinery, 1–12. アソシエーション・フォー・コンピューティング・マシンズ, 1-12。 0.58
[10] Amirata Ghorbani, James Wexler, James Y Zou, and Been Kim. Amirata Ghorbani氏、James Wexler氏、James Y Zou氏、Been Kim氏。 0.70
2019. Towards automatic concept-based explanations. 2019. 概念に基づく自動説明。 0.85
In Advances in Neural Information Processing Systems. 神経情報処理システムの進歩です 0.58
9273–9282. 9273–9282. 0.71
[11] Christopher B Granger, Robert J Goldberg, Omar Dabbous, Karen S Pieper, Kim A Eagle, Christopher P Cannon, Frans Van de Werf, Alvaro Avezum, Shaun G Goodman, Marcus D Flather, et al 2003. 11] Christopher B Granger, Robert J Goldberg, Omar Dabbous, Karen S Pieper, Kim A Eagle, Christopher P Cannon, Frans Van de Werf, Alvaro Avezum, Shaun G Goodman, Marcus D Flather, et al 2003。 0.82
Predictors of hospital mortality in the global registry of acute coronary events. 急性冠疾患の世界登録簿における病院死亡率の予測要因 0.73
Archives of internal medicine 163, 19 (2003), 2345–2353. archives of internal medicine 163, 19 (2003), 2345–2353。 0.83
[12] Bart Hiemstra, Geert Koster, Renske Wiersema, Yoran M Hummel, Pim van der Harst, Harold Snieder, Ruben J Eck, Thomas Kaufmann, Thomas WL Scheeren, Anders Perner, et al 2019. 12] Bart Hiemstra, Geert Koster, Renske Wiersema, Yoran M Hummel, Pim van der Harst, Harold Snieder, Ruben J Eck, Thomas Kaufmann, Thomas WL Scheeren, Anders Perner, et al 2019。 0.82
The diagnostic accuracy of clinical examination for estimating cardiac index in critically ill patients: the Simple Intensive Care Studies-I. 重症心疾患患者における心指数推定のための臨床検査の診断精度:簡易集中治療研究-I 0.83
Intensive care medicine 45, 2 (2019), 190–200. 集中治療薬45, 2 (2019), 190–200。 0.74
[13] Michael Hind, Dennis Wei, Murray Campbell, Noel CF Codella, Amit Dhurandhar, Aleksandra Mojsilović, Karthikeyan Natesan Ramamurthy, and Kush R Varshney. 13] Michael Hind, Dennis Wei, Murray Campbell, Noel CF Codella, Amit Dhurandhar, Aleksandra Mojsilović, Karthikeyan Natesan Ramamurthy, Kush R Varshney 0.72
2019. TED: Teaching AI to explain its decisions. 2019. TED: 意思決定を説明するためにAIを教える。 0.78
In Proceedings of the 2019 2019年の議事録では 0.63
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
A. Raghu, et al A. Raghu, et al 0.99
483–526 (1899). 483–526 (1899). 0.88
Journal of molecular and cellular cardiology 22, 3 (1990), 253–254. journal of molecular and cellular cardiology 22, 3 (1990), 253–254。 0.83
[39] N Saouti, N Westerhof, PE Postmus, and A Vonk-Noordegraaf. [39]N Saouti、N Westerhof、PE Postmus、A Vonk-Noordegraaf。 0.73
2010. The arterial load in pulmonary hypertension. 2010. 肺高血圧症における動脈負荷 0.83
European Respiratory Review 19, 117 (2010), 197–203. European Respiratory Review 19, 117 (2010), 197–203。 0.87
[40] Karen Simonyan, Andrea Vedaldi, and Andrew Zisserman. Karen Simonyan氏、Andrea Vedaldi氏、Andrew Zisserman氏。 0.67
2013. Deep inside convolutional networks: Visualising image classification models and saliency maps. 2013. 畳み込みネットワークの奥深く:画像分類モデルと塩分マップを可視化する。 0.84
arXiv preprint arXiv:1312.6034 (2013). arXiv preprint arXiv:1312.6034 (2013)。 0.76
[41] Mervyn Singer, Clifford S Deutschman, Christopher Warren Seymour, Manu Shankar-Hari, Djillali Annane, Michael Bauer, Rinaldo Bellomo, Gordon R Bernard, Jean-Daniel Chiche, Craig M Coopersmith, et al 2016. 41] Mervyn Singer, Clifford S Deutschman, Christopher Warren Seymour, Manu Shankar-Hari, Djillali Annane, Michael Bauer, Rinaldo Bellomo, Gordon R Bernard, Jean-Daniel Chiche, Craig M Coopersmith, et al 2016 0.88
The third international consensus definitions for sepsis and septic shock (Sepsis-3). 敗血症と敗血症性ショックの第3次国際コンセンサス定義(sepsis-3)。 0.65
JAMA 315, 8 (2016), 801–810. JAMA 315, 8 (2016), 801–810。 0.90
[42] Collin M Stultz. [42]Colin M Stultz。 0.71
2019. The Advent of Clinically Useful Deep Learning. 2019. 臨床的に有用な深層学習の出現。 0.75
JACC. Clinical electrophysiology 5, 5 (2019), 587. JACC 臨床電気生理学5, 5 (2019), 587。 0.68
[43] Mukund Sundararajan, Ankur Taly, and Qiqi Yan. [43]Mukund Sundararajan,Ankur Taly,Qiqi Yan。 0.64
2017. Axiomatic attribution for deep networks. 2017. 深層ネットワークに対する公理的帰属 0.77
In Proceedings of the 34th International Conference on Machine Learning-Volume 70. 34th International Conference on Machine Learning-Volume 70の進捗状況 0.78
JMLR. org, 3319–3328. JMLR所属。 享年3319-3328。 0.57
[44] Thenappan Thenappan, Kurt W Prins, Marc R Pritzker, John Scandurra, Karl Volmers, and E Kenneth Weir. 44] thenappan Thenappan, Kurt W Prins, Marc R Pritzker, John Scandurra, Karl Volmers, E Kenneth Weir。 0.77
2016. The critical role of pulmonary arterial compliance in pulmonary hypertension. 2016. 肺高血圧症における肺動脈コンプライアンスの重要性 0.85
Annals of the American Thoracic Society 13, 2 (2016), 276–284. Annals of the American Thoracic Society 13 2 (2016), 276–284。 0.80
[45] Sana Tonekaboni, Shalmali Joshi, Melissa D McCradden, and Anna Goldenberg. Sana Tonekaboni氏、Shalmali Joshi氏、Melissa D McCradden氏、Anna Goldenberg氏。 0.68
2019. What Clinicians Want: Contextualizing Explainable Machine Learning for Clinical End Use. 2019. 臨床医が望むもの: 臨床終末のための説明可能な機械学習のコンテキスト化。 0.74
In Machine Learning for Healthcare Conference. In Machine Learning for Healthcare Conference に参加。 0.87
359–380. [46] Eric J Topol. 359–380. [46] Eric J Topol 0.70
2019. High-performance medicine: the convergence of human and artificial intelligence. 2019. 高性能医療:人間と人工知能の融合。 0.76
Nature medicine 25, 1 (2019), 44–56. 自然医学25, 1 (2019), 44–56。 0.74
[47] Jean-Louis Vincent and Daniel De Backer. [47]Jean-Louis VincentとDaniel De Backer。 0.93
2013. Circulatory shock. 2013. 循環ショック。 0.73
New England Journal of Medicine 369, 18 (2013), 1726–1734. New England Journal of Medicine 369, 18 (2013), 1726–1734。 0.87
[48] Nico Westerhof, Jan-Willem Lankhaar, and Berend E Westerhof. [48] Nico Westerhof、Jan-Willem Lankhaar、Berend E Westerhof。 0.81
2009. The arterial windkessel. 2009. 動脈のウィンドケセル 0.75
Medical & biological engineering & computing 47, 2 (2009), 131–141. Medical & Bio Engineering & Computing 47, 2 (2009), 131–141。 0.81
[49] Clyde W Yancy, Mariell Jessup, Biykem Bozkurt, Javed Butler, Donald E Casey, Mark H Drazner, Gregg C Fonarow, Stephen A Geraci, Tamara Horwich, James L Januzzi, et al 2013. 49] Clyde W Yancy, Mariell Jessup, Biykem Bozkurt, Javed Butler, Donald E Casey, Mark H Drazner, Gregg C Fonarow, Stephen A Geraci, Tamara Horwich, James L Januzzi, et al 2013。 0.82
2013 ACCF/AHA guideline for the management of heart failure: executive summary: a report of the American College of Cardiology Foundation/American Heart Association Task Force on practice guidelines. 2013 ACCF/AHA guideline for the management of heart failure: Executive summary: a report of the American College of Cardiology Foundation/American Heart Association Task Force on Practice Guidelines。 0.92
Journal of the American College of Cardiology 62, 16 (2013), 1495–1539. Journal of the American College of Cardiology 62, 16 (2013), 1495–1539。 0.84
[50] Matthew D Zeiler and Rob Fergus. 50] Matthew D ZeilerとRob Fergus。 0.71
2014. Visualizing and understanding convolutional networks. 2014. 畳み込みネットワークの可視化と理解。 0.80
In European conference on computer vision. コンピュータビジョンに関する欧州会議で。 0.79
Springer, 818–833. AAAI/ACM Conference on AI, Ethics, and Society. 818-833頁。 AI、倫理、社会に関するAAAI/ACM会議。 0.67
123–129. [14] Yuanming Hu, Luke Anderson, Tzu-Mao Li, Qi Sun, Nathan Carr, Jonathan Ragan-Kelley, and Frédo Durand. 123–129. [14]Yuanming Hu、Luke Anderson、Tzu-Mao Li、Qi Sun、Nathan Carr、Jonathan Ragan-Kelley、Frédo Durand。 0.74
2019. DiffTaichi: Differentiable Programming for Physical Simulation. 2019. difftaichi: 物理シミュレーションのための微分可能プログラミング。 0.76
arXiv preprint arXiv:1910.00935 (2019). arXiv preprint arXiv:1910.00935 (2019) 0.83
[15] J Hurst, C Rackley, E Sonnenblick, and N Wenger. 15] J Hurst、C Rackley、E Sonnenblick、N Wenger。 0.65
1990. The heart, arteries and veins. 1990. 心臓、動脈、静脈。 0.69
Vol. 1. McGraw-Hill. Vol。 1. McGraw-Hill 0.82
[16] Been Kim, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas, et al 2018. 16] Been Kim, Martin Wattenberg, Justin Gilmer, Carrie Cai, James Wexler, Fernanda Viegas, et al 2018 0.76
Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV). 機能属性を超えた解釈可能性:コンセプトアクティベーションベクトル(TCAV)による定量的テスト。 0.78
In International Conference on Machine Learning. 機械学習に関する国際会議で。 0.81
2668–2677. 2668–2677. 0.71
[17] Diederik P Kingma and Jimmy Ba. [17]Diederik P KingmaとJimmy Ba。 0.78
2014. Adam: A method for stochastic optimization. 2014. Adam: 確率最適化の方法です。 0.77
arXiv preprint arXiv:1412.6980 (2014). arXiv preprint arXiv:1412.6980 (2014)。 0.76
[18] Diederik P Kingma and Max Welling. [18]Diederik P KingmaとMax Welling。 0.76
2013. Auto-encoding variational bayes. 2013. 自動エンコード可変ベイ。 0.76
arXiv preprint arXiv:1312.6114 (2013). arXiv preprint arXiv:1312.6114 (2013)。 0.76
[19] Mary E Klingensmith et al 2008. [19]Mary E Klingensmith et al 2008。 0.81
The Washington manual of surgery. ワシントン手術マニュアル(Washington manual of surgery)。 0.65
Lippincott Williams & Wilkins. Lippincott Williams&Wilkins。 0.72
[20] Pang Wei Koh, Thao Nguyen, Yew Siang Tang, Stephen Mussmann, Emma Pierson, Been Kim, and Percy Liang. 20] Pang Wei Koh, Thao Nguyen, Yew Siang Tang, Stephen Mussmann, Emma Pierson, Been Kim, Percy Liang。 0.73
2020. Concept Bottleneck Models. 2020. コンセプトボトルネックモデル。 0.79
arXiv preprint arXiv:2007.04612 (2020). arXiv preprint arXiv:2007.04612 (2020)。 0.75
[21] Todd Kulesza, Simone Stumpf, Margaret Burnett, Sherry Yang, Irwin Kwan, and Weng-Keen Wong. Todd Kulesza, Simone Stumpf, Margaret Burnett, Sherry Yang, Irwin Kwan, and Weng-Keen Wong。 0.71
2013. Too much, too little, or just right? 2013. 多すぎる、小さすぎる、またはちょうど正しいですか? 0.82
Ways explanations impact end users’ mental models. 方法の説明はエンド ユーザーの精神モデルに影響を与えます。 0.58
In 2013 IEEE Symposium on Visual Languages and Human Centric Computing. 2013年、IEEE Symposium on Visual Languages and Human Centric Computing に参加。 0.81
IEEE, 3–10. IEEE 3-10。 0.85
[22] Tao Lei, Regina Barzilay, and Tommi Jaakkola. 22] Tao Lei、Regina Barzilay、Tommi Jaakkola。 0.59
2016. Rationalizing neural predictions. 2016. 神経予測の合理化。 0.75
arXiv preprint arXiv:1606.04155 (2016). arXiv preprint arXiv:1606.04155 (2016)。 0.76
[23] Andrew S Levey, Lesley A Stevens, Christopher H Schmid, Yaping Zhang, Alejandro F Castro III, Harold I Feldman, John W Kusek, Paul Eggers, Frederick Van Lente, Tom Greene, et al 2009. 23] Andrew S Levey, Lesley A Stevens, Christopher H Schmid, Yaping Zhang, Alejandro F Castro III, Harold I Feldman, John W Kusek, Paul Eggers, Frederick Van Lente, Tom Greene, et al 2009。 0.82
A new equation to estimate glomerular filtration rate. 糸球体濾過率を推定する新しい方程式 0.66
Annals of internal medicine 150, 9 (2009), 604–612. annals of internal medicine 150, 9 (2009), 604–612。 0.80
[24] Oscar Li, Hao Liu, Chaofan Chen, and Cynthia Rudin. [24]Oscar Li、Hao Liu、Chaofan Chen、そしてCynthia Rudin。 0.73
2018. Deep learning for case-based reasoning through prototypes: A neural network that explains its predictions. 2018. プロトタイプによるケースベース推論のためのディープラーニング: その予測を説明するニューラルネットワーク。 0.80
In Thirty-Second AAAI Conference on Artificial Intelligence. 人工知能に関する第3回AAAI会議に参加。 0.54
[25] Scott M Lundberg and Su-In Lee. [25] Scott M LundbergとSu-In Lee。 0.93
2017. A unified approach to interpreting model predictions. 2017. モデル予測を統一的に解釈するアプローチ。 0.83
In Advances in neural information processing systems. 神経情報処理システムの進歩。 0.61
4765–4774. 4765–4774. 0.71
[26] Robert L McNamara, Kevin F Kennedy, David J Cohen, Deborah B Diercks, Mauro Moscucci, Stephen Ramee, Tracy Y Wang, Traci Connolly, and John A Spertus. Robert L McNamara, Kevin F Kennedy, David J Cohen, Deborah B Diercks, Mauro Moscucci, Stephen Ramee, Tracy Y Wang, Traci Connolly, John A Spertus。 0.72
2016. Predicting in-hospital mortality in patients with acute myocardial infarction. 2016. 急性心筋梗塞患者における病院内死亡率の予測 0.82
Journal of the American College of Cardiology 68, 6 (2016), 626–635. Journal of the American College of Cardiology 68, 6 (2016), 626–635。 0.85
[27] David Alvarez Melis and Tommi Jaakkola. 27] David Alvarez MelisとTommi Jaakkola。 0.72
2018. Towards robust interpretability with self-explaining neural networks. 2018. 自己表現型ニューラルネットワークによる堅牢な解釈性の実現。 0.71
In Advances in Neural Information Processing Systems. 神経情報処理システムの進歩です 0.58
7775–7784. 7775–7784. 0.71
[28] Tim Miller. ティム・ミラー(Tim Miller)。 0.58
2019. Explanation in artificial intelligence: Insights from the social sciences. 2019. 人工知能における説明:社会科学からの洞察。 0.79
Artificial Intelligence 267 (2019), 1–38. 人工知能267 (2019), 1-38。 0.69
[29] David A Morrow, Elliott M Antman, Lori Parsons, James A de Lemos, Christopher P Cannon, Robert P Giugliano, Carolyn H McCabe, Hal V Barron, and Eugene Braunwald. 1729] David A Morrow, Elliott M Antman, Lori Parsons, James A de Lemos, Christopher P Cannon, Robert P Giugliano, Carolyn H McCabe, Hal V Barron, Eugene Braunwald。 0.76
2001. Application of the TIMI risk score for ST-elevation MI in the National Registry of Myocardial Infarction 3. 2001. 心筋梗塞全国登録簿におけるST上昇MIに対するTIMIリスクスコアの応用 0.72
Jama 286, 11 (2001), 1356–1359. Jama 286, 11 (2001), 1356–1359。 0.86
[30] Paul D. Myers, Wei Huang, Fred Anderson, and Collin M. Stultz. 30] Paul D. Myers、Wei Huang、Fred Anderson、Collin M. Stultz。 0.75
2019. Choosing Clinical Variables for Risk Stratification Post-Acute Coronary Syndrome. 2019. 急性冠症候群のリスク階層化のための臨床変数の選択 0.74
Scientific Reports 9, 1 (2019), 14631. https://doi.org/10.1 038/s41598-019-50933 -3 [31] Paul D Myers, Kenney Ng, Kristen Severson, Uri Kartoun, Wangzhi Dai, Wei Huang, Frederick A Anderson, and Collin M Stultz. Scientific Reports 9, 1 (2019), 14631.https://doi.or g/10.1038/s41598-019 -50933-3 [31] Paul D Myers, Kenney Ng, Kristen Severson, Uri Kartoun, Wangzhi Dai, Wei Huang, Frederick A Anderson, Collin M Stultz 0.86
2020. Identifying unreliable predictions in clinical risk models. 2020. 臨床リスクモデルにおける信頼できない予測の特定 0.77
NPJ digital medicine 3, 1 (2020), 1–8. NPJ Digital Medicine 3, 1 (2020), 1–8。 0.83
[32] Radford M Neal and Geoffrey E Hinton. 32] Radford M NealとGeoffrey E Hinton。 0.67
1998. A view of the EM algorithm that justifies incremental, sparse, and other variants. 1998. インクリメンタル、スパース、およびその他のバリアントを正当化するEMアルゴリズムのビュー。 0.76
In Learning in graphical models. グラフィカルなモデルで学ぶこと。 0.70
Springer, 355–368. スプリンガー、355-368。 0.52
[33] Gregory Plumb, Maruan Al-Shedivat, Eric Xing, and Ameet Talwalkar. 33] Gregory Plumb、Margan Al-Shedivat、Eric Xing、Ameet Talwalkar。 0.73
2019. Regularizing Black-box Models for Improved Interpretability. 2019. 解釈性向上のためのブラックボックスモデルを正規化。 0.69
arXiv preprint arXiv:1902.06787 (2019). arXiv preprint arXiv:1902.06787 (2019) 0.83
[34] Sushravya Raghunath, Alvaro E Ulloa Cerna, Linyuan Jing, Joshua Stough, Dustin N Hartzel, Joseph B Leader, H Lester Kirchner, Martin C Stumpe, Ashraf Hafez, Arun Nemani, et al 2020. 34] Sushravya Raghunath, Alvaro E Ulloa Cerna, Linyuan Jing, Joshua Stough, Dustin N Hartzel, Joseph B Leader, H Lester Kirchner, Martin C Stumpe, Ashraf Hafez, Arun Nemani, et al 2020。 0.82
Prediction of mortality from 12-lead electrocardiogram voltage data using a deep neural network. ディープニューラルネットワークを用いた12誘導心電図電圧データによる死亡予測 0.81
Nature Medicine (2020), 1–6. 自然医学(2020年)、1-6。 0.69
[35] Carl Edward Rasmussen. カール・エドワード・ラスムセン(Carl Edward Rasmussen) 0.62
2003. Gaussian processes in machine learning. 2003. 機械学習におけるガウス過程。 0.79
In Summer School on Machine Learning. サマースクールで機械学習を学ぶ。 0.67
Springer, 63–71. スプリンガー63-71。 0.45
[36] Danilo Jimenez Rezende, Shakir Mohamed, and Daan Wierstra. Danilo Jimenez Rezende, Shakir Mohamed, Daan Wierstra. [36] Danilo Jimenez Rezende, Shakir Mohamed, Daan Wierstra. 0.65
2014. Stochastic backpropagation and approximate inference in deep generative models. 2014. 深部生成モデルにおける確率的バックプロパゲーションと近似推論 0.77
In Proceedings of the 31st International Conference on International Conference on Machine Learning-Volume 32. 第31回「機械学習に関する国際会議」の開催にあたって 0.64
II–1278. [37] Matthew T Roe, Anita Y Chen, Laine Thomas, Tracy Y Wang, Karen P Alexander, Bradley G Hammill, W Brian Gibler, E Magnus Ohman, and Eric D Peterson. 1278年。 Matthew T Roe氏、Anita Y Chen氏、Laine Thomas氏、Tracy Y Wang氏、Karen P Alexander氏、Bradley G Hammill氏、W Brian Gibler氏、E Magnus Ohman氏、Eric D Peterson氏。 0.65
2011. Predicting long-term mortality in older patients after non–ST-segment elevation myocardial infarction: the CRUSADE long-term mortality model and risk score. 2011. 非STセグメント高度心筋梗塞後の高齢者の長期死亡率を予測する:CRUSADE長期死亡モデルおよびリスクスコア。 0.82
American heart journal 162, 5 (2011), 875–883. american heart journal 162, 5 (2011), 875–883。 0.85
[38] Kiichi Sagawa, Reidar K Lie, and Jochen Schaefer. [38] 佐川喜一、レイダー・k・リー、ヨッヘン・シェーファー 0.47
1990. Translation of Otto Frank’s paper “Die Grundform des arteriellen Pulses” zeitschrift für biologie 37: 1990. オットー・フランクの論文 "die grundform des arteriellen pulses" zeitschrift für biologie 37: 0.76
英語(論文から抽出)日本語訳スコア
Consider the data likelihood term alone: データ可能性の用語だけを考えると 0.67
= log 𝑝(𝜙) + log 𝑝(𝜓) + log 𝑝(𝑥 𝑁 1 log p(φ) + log p(*) + log p(x N 1) です。 0.88
1 |𝜙,𝜓). , 𝑦𝑁 1 |𝜙,𝜓). , 𝑦𝑁 0.91
(11) (12) (13) (11) (12) (13) 0.85
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA 0.96
because data points are iid. データポイントは iid だからです 0.83
Then, considering a single term of this sum: そして、この合計の1つの項を考えると 0.64
Learning to Predict with Supporting Evidence A DERIVATION OF LOWER BOUND FOR VARIATIONAL EM We lower bound the joint log likelihood of data and model parameters: log 𝑝(𝜙,𝜓, D) = log 𝑝(𝜙,𝜓, 𝑥 𝑁 1 ) , 𝑦𝑁 1 𝑁∑︁ log 𝑝(𝑥 𝑁 1 |𝜙,𝜓) = log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓), , 𝑦𝑁 1 𝑖=1 (cid:16)∫ 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)𝑑𝜋𝑑𝑧(cid:17) log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓) (cid:16)∫ 𝑞(𝜋, 𝑧) 𝑞(𝜋, 𝑧) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)𝑑𝜋𝑑𝑧(cid:17) = log ∫ (cid:17)𝑑𝜋𝑑𝑧 (cid:16) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓) = log (cid:104) log 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)(cid:105) + 𝐻(𝑞), 𝑞(𝜋, 𝑧) log ≥ 𝑞(𝜋, 𝑧) = E𝜋,𝑧∼𝑞(𝜋,𝑧) Learning to Predict with Supporting Evidence A DERIVATION OF LOWER BOUND FOR VARIATIONAL EM We lower bound the joint log likelihood of data and model parameters: log 𝑝(𝜙,𝜓, D) = log 𝑝(𝜙,𝜓, 𝑥 𝑁 1 ) , 𝑦𝑁 1 𝑁∑︁ log 𝑝(𝑥 𝑁 1 |𝜙,𝜓) = log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓), , 𝑦𝑁 1 𝑖=1 (cid:16)∫ 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)𝑑𝜋𝑑𝑧(cid:17) log 𝑝(𝑥𝑖, 𝑦𝑖|𝜙,𝜓) (cid:16)∫ 𝑞(𝜋, 𝑧) 𝑞(𝜋, 𝑧) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)𝑑𝜋𝑑𝑧(cid:17) = log ∫ (cid:17)𝑑𝜋𝑑𝑧 (cid:16) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓) = log (cid:104) log 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓)(cid:105) + 𝐻(𝑞), 𝑞(𝜋, 𝑧) log ≥ 𝑞(𝜋, 𝑧) = E𝜋,𝑧∼𝑞(𝜋,𝑧) 0.99
(14) (15) (16) (17) (18) where 𝑞 is some distribution over the latent variables 𝜋, 𝑧, the inequality in (17) comes from Jensen’s inequality and concavity of log, and 𝐻(𝑞) is the entropy of distribution 𝑞. (14) (15) (16) (17) (17) (18) ここで q は潜在変数 π, z 上の幾らかの分布であり、17 における不等式はジェンセンの不等式とログの凹凸から来ており、H(q) は分布 q のエントロピーである。 0.86
Then, consider the term inside the expectation: 次に、期待の内側の用語を考えてみよう。 0.60
𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖, 𝜙,𝜓) 𝑝(𝜙,𝜓) = 𝑝(𝜙)𝑝(𝜓)𝑝(𝜋)𝑝(𝑦𝑖|𝜋)𝑝(𝑧|𝜋, 𝜙)𝑝(𝑥𝑖|𝑧,𝜓) 𝑝(𝜙)𝑝(𝜓) = = 𝑝(𝜋)𝑝(𝑦𝑖|𝜋)𝑝(𝑧|𝜋, 𝜙)𝑝(𝑥𝑖|𝑧,𝜓). 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖|𝜙,𝜓) 𝑝(𝜋, 𝑦𝑖, 𝑧, 𝑥𝑖, 𝜙,𝜓) 𝑝(𝜙,𝜓) = 𝑝(𝜙)𝑝(𝜓)𝑝(𝜋)𝑝(𝑦𝑖|𝜋)𝑝(𝑧|𝜋, 𝜙)𝑝(𝑥𝑖|𝑧,𝜓) 𝑝(𝜙)𝑝(𝜓) = = 𝑝(𝜋)𝑝(𝑦𝑖|𝜋)𝑝(𝑧|𝜋, 𝜙)𝑝(𝑥𝑖|𝑧,𝜓). 0.98
log 𝑝(𝜋) + log 𝑝(𝑦𝑖|𝜋) + log 𝑝(𝑧|𝜋, 𝜙) + log 𝑝(𝑥𝑖|𝑧,𝜓)(cid:105) + 𝐻(𝑞) (cid:104) log p(π) + log p(yi|π) + log p(z|π, φ) + log p(xi|z,\)(cid:105) + H(q) (cid:104) 1.00
E𝜋,𝑧∼𝑞(𝜋,𝑧) Eπ,z\q(π,z) 0.86
(cid:33) . (cid:33) . 0.82
(19) (20) (21) (22) (19) (20) (21) (22) 0.85
(23) (cid:32) We then arrive at the final result: log 𝑝(𝜙) + log 𝑝(𝜓) + 𝑁∑︁ log 𝑝(𝜙,𝜓, D) ≥ 𝑖=1 (23) (cid:32) 最終結果に到達する: log p(φ) + log p(ψ) + n\ log p(φ,ψ, d) ≥ i=1 0.85
英語(論文から抽出)日本語訳スコア
ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA B ADDITIONAL DETAILS ON RELATED WORK We provide more details comparing LPS to three methods that support predictions with concept-based explanation: • Contextual Explanation Networks [1]: Uses both high dimensional input (e g an image) and a set of labelled attributes for each example in making a predictive decision, with the high-dimensional input used to generate weights for these attributes in the predictor. ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA B ADDITIONAL DETAILS ON RELATED WORK コンセプトベースの説明で予測をサポートする3つの方法にLPSを比較する詳細を提供します。 • コンテキスト説明ネットワーク [1]:予測器のこれらの属性の重みを生成するために使用される高次元入力(例えば画像)と、予測決定を行う各例のラベル付き属性のセットの両方を使用します。 0.87
In contrast, LPS does not assume that these labelled attributes exist for every example, and instead enforces groundedness of the supporting evidence concepts using a forward model and domain knowledge. 対照的に、LPSはこれらのラベル付き属性がすべての例に存在し、代わりにフォワードモデルとドメイン知識を使用して、支持するエビデンスの概念の基盤を強制する。 0.62
This assumption of labelled attributes is why CEN is not used as a baseline method in the evaluation of LPS. ラベル付き属性のこの仮定は、CENがLPSの評価におけるベースライン方法として使用されていない理由である。 0.70
• Self-Explaining Neural Networks [27]: provides explanations for predictions by learning a neural network model that forms predictions as a product of input-dependent concepts and weighting terms for these concepts. • 自己説明ニューラルネットワーク [27]: 入力依存概念の積として予測を形成するニューラルネットワークモデルを学び、これらの概念の重み付けによって予測を説明する。 0.88
The concepts for explanations are learned from data (not constrained by domain understanding) and are interpreted by considering input examples that most characterise them (they do not necessarily have an inherent interpretation). 説明の概念はデータから学び(ドメイン理解によって制限されない)、ほとんどの特徴付けする入力例を検討することによって解釈される(必ずしも固有の解釈を持っていない)。 0.77
Unlike concepts in LPS, learned concepts in SENN need not resemble meaningful abstractions that a domain expert would find useful in decision making. LPSの概念とは異なり、SENNで学んだ概念は、ドメインの専門家が意思決定に有用な意味のある抽象概念に似てはならない。 0.63
Furthermore, since SENN uses input examples as prototypes to characterise learned concepts. さらに、sennは入力例をプロトタイプとして学習概念を特徴付ける。 0.62
With complex, multimodal data, as in our clinical experiment, such examples can be challenging to visualise and understand, unlike LPS concepts, which have a direct interpretation. 臨床実験のように複雑なマルチモーダルデータでは、直接解釈するLPSの概念とは異なり、このような例は視覚的で理解が難しい。
訳抜け防止モード: 臨床実験のように、複雑なマルチモーダルデータで。 このような例は、直接解釈を持つLPS概念とは異なり、可視化と理解が困難である。
0.76
• Concept Bottleneck Models [20]: Outputs a higher level set of concepts along with a prediction, in a similar fashion to LPS. •概念ボトルネックモデル [20]: LPSと同様の方法で、予測とともに、より高いレベルの概念セットを出力する。 0.79
However, CBMs assume labels for each concept at training time, whereas LPS relies on domain knowledge to ground the concepts. しかし、CBMは各概念のラベルをトレーニング時に想定するが、LPSは概念の根底にドメイン知識に依存している。 0.70
Technically, LPS uses a generative modelling approach to incorporate domain knowledge at training time, whereas CBMs do not. 技術的には、LPSは学習時にドメイン知識を組み込むために生成モデリングアプローチを使用しているが、CBMはそうではない。
訳抜け防止モード: 技術的には、LPSは生成的モデリングアプローチを用いる ドメイン知識を訓練時に取り入れること 一方、CBMはそうではない。
0.63
A. Raghu, et al A. Raghu, et al 0.99
C ADDITIONAL INFORMATION FOR EXPERIMENTS We provide further information for experiments. C ADDITIONAL Information for EXPERIMENTS 実験のためのさらなる情報を提供します。 0.78
C.1 Network Architectures Learnable forward model: The network 𝑓 (𝑧,𝜓) models observed tabular features and the ECG. c.1 network architectures learnable forward model: the network f (z,ψ) model observed tabular features and the ecg。 0.81
Generating the entire 12 lead ECG is challenging, so we approximate the respective term in the objective function (𝑝(𝑥 (𝑓 )|𝑧,𝜓)) by computing the log probability of the first 500 samples of the first lead. 12個のリード心電図全体の生成は困難であるため、第一のリードの最初の500個のサンプルのログ確率を計算することにより、目的関数 (p(x (f )|z, )) の各項を近似する。 0.80
The network architecture is as follows: • ECG network: – Input: 𝑧 – FC layer, output size 100, leaky ReLU activation – Upsample (scale factor 1.5), 1D conv (32 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – 1D conv (64 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.5), 1D conv (128 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – 1D conv (128 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.33), 1D conv (64 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.33), 1D conv (32 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.25), 1D conv (1 channel, kernel size 15, stride 1) • Tabular features network: – Input: 𝑧 – FC layer, output 128, Batch norm, leaky ReLU – FC layer, output 128, Batch norm, leaky ReLU – FC layer, output 64, Batch norm, leaky ReLU approximation we factor this posterior as5 – FC layer, output 7, Batch norm, leaky ReLU. The network architecture is as follows: • ECG network: – Input: 𝑧 – FC layer, output size 100, leaky ReLU activation – Upsample (scale factor 1.5), 1D conv (32 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – 1D conv (64 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.5), 1D conv (128 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – 1D conv (128 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.33), 1D conv (64 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.33), 1D conv (32 channels, kernel size 15, stride 1), Batch norm, leaky ReLU – Upsample (scale factor 1.25), 1D conv (1 channel, kernel size 15, stride 1) • Tabular features network: – Input: 𝑧 – FC layer, output 128, Batch norm, leaky ReLU – FC layer, output 128, Batch norm, leaky ReLU – FC layer, output 64, Batch norm, leaky ReLU approximation we factor this posterior as5 – FC layer, output 7, Batch norm, leaky ReLU. 0.88
Variational posterior: We use a deep neural network to model the variational posterior, represented as 𝑞(𝑧, 𝜋|𝑥; 𝜃𝑞). 変分後部: q(z, π|x; θq) で表される変分後部をモデル化するために深部ニューラルネットワークを用いる。 0.76
Using a mean field 𝑞(𝑧𝑚|𝑥)𝑞(𝜋|𝑥). 平均体 q(zm|x)q(π|x) を用いる。 0.74
We set each 𝑞(𝑧𝑚|𝑥) to be a lognormal distribution, and 𝑞(𝜋|𝑥) be a Beta 𝑚=1 distribution. 各 q(zm|x) を対数正規分布とし、q(π|x) をベータ m=1 分布とする。 0.84
The network architecture is follows: • The ECG is passed through a 1D convolution residual network, based on the ResNet-18 architecture. • ECGはResNet-18アーキテクチャに基づいた1D畳み込み残余ネットワークを介して渡される。
訳抜け防止モード: ネットワークアーキテクチャは以下の通りです • ECGはResNet-18アーキテクチャに基づく1D畳み込み残余ネットワークを介して渡される。
0.80
This network uses kernel of size 15 throughout, with 4 blocks of 32, 64, 128, and 256 channels respectively. このネットワークは、32、64、128、256チャンネルの4ブロックで、全15サイズのカーネルを使用します。 0.70
Each block downsamples the input by a factor of 2. 各ブロックは2の係数で入力をダウンサンプリングします。 0.76
• The tabular features are passed through a two layer FC network with ReLU activation and 64 and 128 hidden units. • タブラー機能は、ReLUアクティベーションと64および128隠されたユニットを備えた2層FCネットワークを通過します。 0.82
• The representation from the ECG is average pooled in the temporal dimension, and is concatenated with the representation from the tabular features. • ECGからの表現は、時間次元で平均的にプールされ、表形式の特徴からの表現と結合される。 0.77
• This is passed through 2 more FC layers, with ReLU activation, and 128 and 64 hidden units respectively. • これはReLUアクティベーションが128個、隠蔽ユニットが64個、さらに2つのFC層を通過している。 0.73
• A final FC layer produces the mean and variance parameters for the posterior on each 𝑧𝑚, and the Beta distribution concentration parameters for the posterior on 𝜋. • 最終FC層は, 各zmにおける後部の平均および分散パラメータと, πにおける後部ベータ分布濃度パラメータを生成する。 0.79
The variance estimates have exponential function activation. 分散推定は指数関数活性化を有する。 0.75
The Beta concentration parameters are clamped softly using a sigmoid function to be in the range [1, 11] for numerical stability. ベータ濃度パラメータは数値安定性のために[1,11]の範囲内にあるsgmoid関数を用いてソフトにクランプされる。 0.80
英語(論文から抽出)日本語訳スコア
(cid:104) , (cid:104) , 0.82
Learning to Predict with Supporting Evidence ACM CHIL ’21, April 8–10, 2021, Virtual Event, USA MAP Inference Network: The MAP network 𝑛(𝑥; 𝜃𝑛) is a neural network with the same architecture as the variational posterior network, except that it directly outputs the MAP estimates of 𝑧 and 𝜋. C.2 Implementation and Training Details We learn MAP parameter estimates for the model by maximising a lower bound on the log evidence. acm chil ′21, april 8–10, 2021, virtual event, usa map inference network: the map network n(x; θn) is a same architecture with the variational posterior network, but it direct outputs the map estimates of z and π.2 implementation and training details we learn map parameter estimates for the model. (英語)
訳抜け防止モード: 2021年4月8-10日、ACM CHILのエビデンス支援による予測の学習 仮想イベント,USA MAP推論ネットワーク : MAPネットワーク n(x, θn) は変動後ネットワークと同じ構造を持つニューラルネットワークである。 z と π の MAP 推定を直接出力する以外は C.2 の実装と訓練の詳細 我々は,ログエビデンスに対する下位境界を最大化することにより,モデルのMAPパラメータ推定を学習する。
0.88
We approximate the expectation in this lower bound by drawing a single sample from the variational posterior using the reparameterisation trick [18, 36], allowing end-to-end gradient-based training of the parameters 𝜙, the variational posterior parameters 𝜃𝑞 and the forward model parameters 𝜓. パラメータ φ, 変分後パラメータ θq および前モデルパラメータ φ のエンドツーエンド勾配に基づくトレーニングを可能にするリパラメータ化トリック [18, 36] を用いて, 変分後から1つのサンプルを描画することにより, この下界での予測を近似する。 0.83
In practice, we use a small number of empirical adjustments: (i) we only maximise the log probability of the first 500 samples of the ECG (to simplify the modelling problem); (ii) for the first 10 epochs of training, we do not use the data likelihood term 𝑝(𝑥|𝑧,𝜓) in the objective, for learning stability. 実際、我々は少数の経験的調整を用いており、(i)ECGの最初の500サンプルのログ確率を最大化(モデリング問題を単純化するために)し、(ii)トレーニングの最初の10回について、安定性を学ぶために、目的としてデータ可能性項 p(x|z,...) は使用しない。 0.80
The objective function written out in finite sample form, for a batch size of 𝐾 points is: (cid:32) log 𝑝( ˜𝜋) + log 𝑝(𝑦𝑖| ˜𝜋) + log 𝑝(˜𝑧| ˜𝜋, 𝜙) + log 𝑝(𝑥𝑖|˜𝑧,𝜓) − log 𝑞(˜𝑧; 𝜃𝑞) − log 𝑞( ˜𝜋; 𝜃𝑞)(cid:105)(cid:33) log 𝑝(𝜙) + log 𝑝(𝜓) + 𝐾∑︁ L(𝜙,𝜓, 𝜃𝑞) = 𝑖=1 with ˜𝜋, ˜𝑧 ∼ 𝑞(𝑧|𝑥𝑖 ; 𝜃𝑞)𝑞(𝜋|𝑥𝑖 ; 𝜃𝑞). 有限個のサンプル形式で記述されたk点のバッチサイズに対する対象関数は、 (cid:32) log p( \π) + log p(yi| supπ) + log p( zyz| sπ, φ) + log p(xi| sz,ψ) − log q( θq; θq)(cid:105)(cid:33) log p(φ) + log p(φ) + k( φ, θq) = i=1 with sπ, zyz s q(z|xi ; θq)q(π|xi ; θq) である。 0.94
We use Adam [17] for maximising this lower bound, with a learning rate of 1e-4. この下限を最大化するためにadam[17]を使用し、学習率は1e-4である。 0.64
Training is for 200 epochs with a batch size of 32. トレーニングは200エポックで、バッチサイズは32である。 0.71
This yields approximate MAP estimates 𝜙∗,𝜓∗, and variational posterior parameters 𝜃∗ 𝑞. これにより近似写像推定 φ∗,∗∗ と変分後パラメータ θ∗ q が得られる。 0.69
To learn the MAP inference network 𝑛(𝑥; 𝜃𝑛) → ( ^𝜋, ^𝑧), we train with Adam for 200 epochs, with a learning rate of 1e-3 and a batch size log 𝑝( ^𝜋) + log 𝑝(𝑦𝑖| ^𝜋)+ log 𝑝(^𝑧| ^𝜋, 𝜙∗) + log 𝑝(𝑥𝑖|^𝑧,𝜓∗)(cid:105) . MAP推論ネットワーク n(x; θn) → ( ^π, ^z) を学習するために、Adam と200エポックで訓練し、学習速度は 1e-3 で、バッチサイズは log p( ^π) + log p(yi| ^π) + log p(^z| ^π, φ∗) + log p(xi|^z,*∗)(cid: 105) である。 0.88
(cid:104) 𝐾∑︁ of 32. (cid:104) 背番号32。 0.66
The objective function is as follows, with a batch size of 𝐾: 𝑖=1 The baseline model has the same architecture as the MAP inference network, except it only outputs the class probability and is trained using a standard binary cross entropy loss. i=1 ベースラインモデルはMAP推論ネットワークと同じアーキテクチャを持ち、クラス確率のみを出力し、標準的なバイナリクロスエントロピーロスを使用して訓練される。
訳抜け防止モード: 目的関数は以下の通りで、バッチサイズは K : i=1 ベースラインモデルはMAP推論ネットワークと同じアーキテクチャを持つ。 ただし、クラス確率のみを出力し、標準的なバイナリクロスエントロピー損失を使用してトレーニングされる。
0.79
This model is trained for 200 epochs with Adam, with a learning rate of 1e-3 and batch size of 32. このモデルは、1e-3の学習率と32のバッチサイズを持つ、adamによる200エポックでトレーニングされる。 0.66
SENN is implemented with the same autoencoder architecture as the LPS variational autoencoder, and uses 5 basis concepts (to enable comparison with LPS). SENNはLPS変分オートエンコーダと同じオートエンコーダアーキテクチャで実装されており、5つの基本概念(LPSとの比較を可能にする)を使用している。 0.65
We examined different learning rate and sparsity parameters on the validation set. 検証セット上で異なる学習率とスパーシティパラメータを検討した。 0.76
Choice of architectures and hyperparameters: For the learnable forward model, we based our architecture on standard upsampling architectures used in deconvolutional networks. アーキテクチャの選択とハイパーパラメータ: 学習可能なフォワードモデルでは、デコンボリューションネットワークで使用される標準的なアップサンプリングアーキテクチャに基づいています。 0.66
We investigated shallower and deeper architectures and decided on this architecture based on reconstruction performance. より浅層・深層構造を調査し, 復元性能に基づいて検討した。 0.63
The baseline, MAP, and variational posterior networks here using FC layers and 1D CNNs is based on the architecture from [34], with an additional residual network structure for the backbone of the network to extract ECG features. FC層と1D CNNを用いたベースライン,MAP,および変分後部ネットワークは[34]のアーキテクチャに基づいており,ネットワークのバックボーンに余剰ネットワーク構造を加えてECGの特徴を抽出する。 0.80
These architectures were not tuned. これらの建築は調整されなかった。 0.56
We compared learning rates of 1e-3, 5e-4, and 1e-4 for all models, and decided on the final learning rate based on stability of training. 全モデルについて1e-3,5e-4,1e-4の学習率を比較し,トレーニングの安定性に基づいて最終学習率を決定する。 0.73
We did not tune other model hyperparameters (batch size, weighting of loss terms, etc). 他のモデルハイパーパラメータ(バッチサイズ、損失項の重み付けなど)をチューニングしていません。 0.70
Early stopping: Validation set AUC performance was used to decide when to evaluate on the test set, for all models. 早期停止: 検証セット AUC パフォーマンスを使用して、すべてのモデルに対して、テストセットで評価するタイミングを決定しました。 0.70
All models were implemented in PyTorch and trained on an NVIDIA Titan Xp GPU. すべてのモデルはPyTorchで実装され、NVIDIA Titan Xp GPUで訓練された。 0.77
LMAP(𝜃𝑛) = LMAP(θn) = 0.99
                           ページの最初に戻る

翻訳にはFugu-Machine Translatorを利用しています。