論文の概要: Using Interpretable Machine Learning to Predict Maternal and Fetal
Outcomes
- arxiv url: http://arxiv.org/abs/2207.05322v1
- Date: Tue, 12 Jul 2022 05:32:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 14:58:39.137922
- Title: Using Interpretable Machine Learning to Predict Maternal and Fetal
Outcomes
- Title(参考訳): 解釈可能な機械学習による母と子の結果の予測
- Authors: Tomas M. Bosschieter, Zifei Xu, Hui Lan, Benjamin J. Lengerich, Harsha
Nori, Kristin Sitcov, Vivienne Souter, Rich Caruana
- Abstract要約: ガラス箱モデルである Explainable Boosting Machine (EBM) を用いて, 最も重要なリスク要因を特定し, 検討した。
EBMの解釈可能性を用いて、リスクに寄与する特徴に関する驚くべき洞察を明らかにする一方で、我々の実験は、EBMが他のブラックボックスML手法の精度と一致することを示した。
- 参考スコア(独自算出の注目度): 9.705885698264005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most pregnancies and births result in a good outcome, but complications are
not uncommon and when they do occur, they can be associated with serious
implications for mothers and babies. Predictive modeling has the potential to
improve outcomes through better understanding of risk factors, heightened
surveillance, and more timely and appropriate interventions, thereby helping
obstetricians deliver better care. For three types of complications we identify
and study the most important risk factors using Explainable Boosting Machine
(EBM), a glass box model, in order to gain intelligibility: (i) Severe Maternal
Morbidity (SMM), (ii) shoulder dystocia, and (iii) preterm preeclampsia. While
using the interpretability of EBM's to reveal surprising insights into the
features contributing to risk, our experiments show EBMs match the accuracy of
other black-box ML methods such as deep neural nets and random forests.
- Abstract(参考訳): ほとんどの妊娠と出生は良い結果をもたらすが、合併症はまれではなく、発生しても母親や赤ちゃんに深刻な影響をもたらす可能性がある。
予測モデリングは、リスク要因の理解を深め、監視を強化し、よりタイムリーで適切な介入を行うことによって、結果を改善する可能性を秘めている。
3種類の合併症に対して,ガラス箱モデルであるEBM(Explainable Boosting Machine)を用いて,最も重要なリスク要因を特定し,検討する。
(i)重度の母性死亡(smm)
(二)肩ジストシア、及び
(iii)早産(preterm preeclampsia)。
EBMの解釈可能性を用いて、リスクに寄与する特徴に関する驚くべき洞察を明らかにする一方で、実験により、EBMはディープニューラルネットやランダムフォレストといった他のブラックボックスML手法の精度と一致することが示された。
関連論文リスト
- Use of What-if Scenarios to Help Explain Artificial Intelligence Models for Neonatal Health [6.102406188211489]
部分的リスクの早期検出は、介入によって脳性麻痺などの有害な労働結果の予防または軽減を可能にする。
新生児健康のモデリングと説明のためのAI(Artificial Intelligence)を提案する(AIMEN)。
母性、胎児、産科、産科のリスクファクターから有害な労働結果を予測するだけでなく、その予測の背後にあるモデルの推論も提供する。
論文 参考訳(メタデータ) (2024-10-12T20:21:00Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - XAI for In-hospital Mortality Prediction via Multimodal ICU Data [57.73357047856416]
マルチモーダルICUデータを用いて病院内死亡率を予測するための,効率的で説明可能なAIソリューションを提案する。
我々は,臨床データから異種入力を受信し,意思決定を行うマルチモーダル・ラーニングを我々のフレームワークに導入する。
我々の枠組みは、医療研究において重要な要素の発見を容易にする他の臨床課題に容易に移行することができる。
論文 参考訳(メタデータ) (2023-12-29T14:28:04Z) - Interpretable Survival Analysis for Heart Failure Risk Prediction [50.64739292687567]
現状の生存モデルと解釈可能かつ競合する新しい生存分析パイプラインを提案する。
我々のパイプラインは最先端のパフォーマンスを達成し、心不全のリスク要因に関する興味深い新しい洞察を提供する。
論文 参考訳(メタデータ) (2023-10-24T02:56:05Z) - Interpretable Predictive Models to Understand Risk Factors for Maternal
and Fetal Outcomes [17.457683367235536]
妊娠合併症の危険因子として, 重度の母性不妊症, 肩関節ジストシア, 妊娠前, 産科の4種類を同定し, 検討した。
我々は,ガラス箱の高精度な学習手法である説明可能なブースティングマシン(EBM)を用いて,重要な危険因子の予測と同定を行う。
論文 参考訳(メタデータ) (2023-10-16T09:17:10Z) - Closing the Gap in High-Risk Pregnancy Care Using Machine Learning and Human-AI Collaboration [8.36613277875556]
高リスク妊娠(英: High-risk pregnant)は、母親や乳児の結果に悪影響を及ぼす要因によって複雑な妊娠である。
本研究は、合併症のリスクがある妊婦の特定において、ケアマネージャを支援するための現実のMLベースのシステムの実装を提案する。
論文 参考訳(メタデータ) (2023-05-26T21:08:49Z) - Predicting Adverse Neonatal Outcomes for Preterm Neonates with
Multi-Task Learning [51.487856868285995]
われわれはまず, 3つの不良新生児結果の相関関係を解析し, マルチタスク学習(MTL)問題として複数の新生児結果の診断を定式化する。
特に、MTLフレームワークは、共有された隠れレイヤと複数のタスク固有のブランチを含んでいる。
論文 参考訳(メタデータ) (2023-03-28T00:44:06Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Three Applications of Conformal Prediction for Rating Breast Density in
Mammography [5.634287524779709]
乳房密度を評価することは臨床的に重要であるが、乳房密度が高く、腫瘍を閉塞する可能性が高い。
マンモグラフィー乳房密度評価のための深層学習手法の開発への関心が高まっている。
マンモグラフィーに応用するいくつかの予測タスクにおいて、ディープラーニングは印象的な性能を示したが、ディープラーニングシステムの臨床展開は、まだ比較的稀である。
論文 参考訳(メタデータ) (2022-06-23T23:03:24Z) - Simultaneous Estimation of X-ray Back-Scatter and Forward-Scatter using
Multi-Task Learning [59.17383024536595]
後方散乱は複雑な介入の際の患者(皮膚)の服用に大きく寄与する。
前方散乱放射線は投影画像のコントラストを低減し、3次元再構成でアーティファクトを導入する。
本稿では,従来の手法と学習に基づく手法を組み合わせて,検出器に到達した前方散乱を同時に推定する手法を提案する。
論文 参考訳(メタデータ) (2020-07-08T10:47:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。