論文の概要: Bridging the Trust Gap: Clinician-Validated Hybrid Explainable AI for Maternal Health Risk Assessment in Bangladesh
- arxiv url: http://arxiv.org/abs/2601.07866v1
- Date: Sat, 10 Jan 2026 16:12:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-14 18:27:18.879157
- Title: Bridging the Trust Gap: Clinician-Validated Hybrid Explainable AI for Maternal Health Risk Assessment in Bangladesh
- Title(参考訳): 信頼のギャップを埋める:バングラデシュの母方の健康リスク評価のための臨床応用ハイブリッド説明可能なAI
- Authors: Farjana Yesmin, Nusrat Shirmin, Suraiya Shabnam Bristy,
- Abstract要約: 本研究では、アンテホックファジィ論理とポストホックSHAP説明を組み合わせたハイブリッドAIフレームワークを提案する。
本研究では,1014人の母体保健記録にファジィXGBoostモデルを適用し,88.67%の精度を達成した。
バングラデシュの14人の医療専門家によるバリデーション調査では、ハイブリッドな説明が強く好まれていた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While machine learning shows promise for maternal health risk prediction, clinical adoption in resource-constrained settings faces a critical barrier: lack of explainability and trust. This study presents a hybrid explainable AI (XAI) framework combining ante-hoc fuzzy logic with post-hoc SHAP explanations, validated through systematic clinician feedback. We developed a fuzzy-XGBoost model on 1,014 maternal health records, achieving 88.67% accuracy (ROC-AUC: 0.9703). A validation study with 14 healthcare professionals in Bangladesh revealed strong preference for hybrid explanations (71.4% across three clinical cases) with 54.8% expressing trust for clinical use. SHAP analysis identified healthcare access as the primary predictor, with the engineered fuzzy risk score ranking third, validating clinical knowledge integration (r=0.298). Clinicians valued integrated clinical parameters but identified critical gaps: obstetric history, gestational age, and connectivity barriers. This work demonstrates that combining interpretable fuzzy rules with feature importance explanations enhances both utility and trust, providing practical insights for XAI deployment in maternal healthcare.
- Abstract(参考訳): 機械学習は母体の健康リスク予測を約束する一方で、リソース制限された設定における臨床導入は、説明可能性の欠如と信頼の欠如という重要な障壁に直面している。
本研究は, 系統的臨床フィードバックを用いて検証した, アンテホックファジィ論理とポストホックSHAP説明を組み合わせたハイブリッド説明可能なAI(XAI)フレームワークを提案する。
本研究では,1014人の母体保健記録にファジィXGBoostモデルを適用し,88.67%の精度(ROC-AUC: 0.9703)を得た。
バングラデシュの14人の医療専門家によるバリデーション調査では、3つの臨床症例で71.4%のハイブリッド説明が強く好まれており、54.8%が臨床使用に対する信頼を表明している。
SHAP分析では,医療アクセスが第一の予測因子であり,ファジィリスクスコアが第3位であり,臨床知識統合(r=0.298)が検証された。
臨床医は統合された臨床パラメータを重んじるが、産婦人科の歴史、妊娠年齢、接続障壁といった重要なギャップを特定できた。
この研究は、解釈可能なファジィルールと特徴的重要性の説明を組み合わせることで、実用性と信頼の両方が向上し、母体医療におけるXAIデプロイメントの実践的な洞察を提供することを示した。
関連論文リスト
- Knowledge-Guided Large Language Model for Automatic Pediatric Dental Record Understanding and Safe Antibiotic Recommendation [0.4779196219827507]
本研究では,知識誘導型大規模言語モデル(KG-LLM)を提案する。
小児歯科知識グラフ、検索増強世代(RAG)、エビデンスを根拠とした抗生物質推奨のための多段階安全検証パイプラインを統合している。
32,000件の未確認小児歯科訪問記録実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2025-12-09T21:11:55Z) - Beyond Traditional Diagnostics: Transforming Patient-Side Information into Predictive Insights with Knowledge Graphs and Prototypes [55.310195121276074]
本稿では,病気を予測するための知識グラフ,プロトタイプ認識,解釈可能なフレームワークを提案する。
構造化された信頼された医療知識を統合された疾患知識グラフに統合し、臨床的に意味のある疾患のプロトタイプを構築し、予測精度を高めるために対照的な学習を利用する。
臨床的に有効な説明を提供し、患者の物語と密接に一致し、患者中心のヘルスケアデリバリーの実践的価値を強調している。
論文 参考訳(メタデータ) (2025-12-09T05:37:54Z) - Diagnosing Hallucination Risk in AI Surgical Decision-Support: A Sequential Framework for Sequential Validation [5.469454486414467]
大言語モデル (LLMs) は脊椎手術における臨床的決定支援の転換的可能性を提供する。
LLMは幻覚を通じて重大なリスクを引き起こすが、これは事実的に矛盾しているか、文脈的に不一致な出力である。
本研究は, 診断精度, 推奨品質, 推理堅牢性, 出力コヒーレンス, 知識アライメントを評価することによって, 幻覚リスクを定量化するための臨床中心の枠組みを提案する。
論文 参考訳(メタデータ) (2025-11-01T15:25:55Z) - Medical priority fusion: achieving dual optimization of sensitivity and interpretability in nipt anomaly detection [0.0]
臨床機械学習は、高い医療応用において重要なジレンマに直面している。
非侵襲的出生前検査(NIPT)では特にパラドックスが急性化しており、染色体異常が重篤な臨床結果をもたらす。
本稿では,この基本的なトレードオフを解決するための制約付き多目的最適化フレームワークである医療優先融合(MPF)を紹介する。
論文 参考訳(メタデータ) (2025-09-22T15:49:20Z) - Reducing Large Language Model Safety Risks in Women's Health using Semantic Entropy [29.14930590607661]
大型言語モデル (LLM) は幻覚と呼ばれる誤りや誤解を招く出力を生成する。
難易度などの不確実性を定量化する伝統的な手法は、誤報につながる意味レベルの不整合を捉えることに失敗する。
我々は,新たな不確実性指標であるセマンティックエントロピー(SE)を評価し,AI生成医療内容の幻覚を検出する。
論文 参考訳(メタデータ) (2025-03-01T00:57:52Z) - Reasoning-Enhanced Healthcare Predictions with Knowledge Graph Community Retrieval [61.70489848327436]
KAREは、知識グラフ(KG)コミュニティレベルの検索と大規模言語モデル(LLM)推論を統合する新しいフレームワークである。
MIMIC-IIIでは最大10.8~15.0%、MIMIC-IVでは12.6~12.7%である。
論文 参考訳(メタデータ) (2024-10-06T18:46:28Z) - Closing the Gap in High-Risk Pregnancy Care Using Machine Learning and Human-AI Collaboration [8.36613277875556]
高リスク妊娠(英: High-risk pregnant)は、母親や乳児の結果に悪影響を及ぼす要因によって複雑な妊娠である。
本研究は、合併症のリスクがある妊婦の特定において、ケアマネージャを支援するための現実のMLベースのシステムの実装を提案する。
論文 参考訳(メタデータ) (2023-05-26T21:08:49Z) - AutoTrial: Prompting Language Models for Clinical Trial Design [53.630479619856516]
本稿では,言語モデルを用いた臨床検査基準の設計を支援するAutoTrialという手法を提案する。
70K以上の臨床試験で、AutoTrialが高品質な基準テキストを生成することが確認された。
論文 参考訳(メタデータ) (2023-05-19T01:04:16Z) - Informing clinical assessment by contextualizing post-hoc explanations
of risk prediction models in type-2 diabetes [50.8044927215346]
本研究は, 合併症リスク予測のシナリオを考察し, 患者の臨床状態に関する文脈に焦点を当てる。
我々は、リスク予測モデル推論に関する文脈を提示し、その受容性を評価するために、最先端のLLMをいくつか採用する。
本論文は,実世界における臨床症例における文脈説明の有効性と有用性を明らかにする最初のエンドツーエンド分析の1つである。
論文 参考訳(メタデータ) (2023-02-11T18:07:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。