論文の概要: Rationale production to support clinical decision-making
- arxiv url: http://arxiv.org/abs/2111.07611v1
- Date: Mon, 15 Nov 2021 09:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:51:44.298098
- Title: Rationale production to support clinical decision-making
- Title(参考訳): 臨床意思決定を支援するランタリー生産
- Authors: Niall Taylor, Lei Sha, Dan W Joyce, Thomas Lukasiewicz, Alejo
Nevado-Holgado, Andrey Kormilitzin
- Abstract要約: 本稿では,病院の退院予測にInfoCalを適用した。
選択された解釈可能性を持つ各提示モデルや特徴重要度法は,それぞれ異なる結果をもたらす。
- 参考スコア(独自算出の注目度): 31.66739991129112
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The development of neural networks for clinical artificial intelligence (AI)
is reliant on interpretability, transparency, and performance. The need to
delve into the black-box neural network and derive interpretable explanations
of model output is paramount. A task of high clinical importance is predicting
the likelihood of a patient being readmitted to hospital in the near future to
enable efficient triage. With the increasing adoption of electronic health
records (EHRs), there is great interest in applications of natural language
processing (NLP) to clinical free-text contained within EHRs. In this work, we
apply InfoCal, the current state-of-the-art model that produces extractive
rationales for its predictions, to the task of predicting hospital readmission
using hospital discharge notes. We compare extractive rationales produced by
InfoCal to competitive transformer-based models pretrained on clinical text
data and for which the attention mechanism can be used for interpretation. We
find each presented model with selected interpretability or feature importance
methods yield varying results, with clinical language domain expertise and
pretraining critical to performance and subsequent interpretability.
- Abstract(参考訳): 臨床人工知能(AI)のためのニューラルネットワークの開発は、解釈可能性、透明性、パフォーマンスに依存している。
ブラックボックスニューラルネットワークを探索し、モデル出力の解釈可能な説明を導出する必要がある。
臨床的に重要な課題は、患者が近い将来入院し、効率的なトリアージを可能にする可能性を予測することである。
電子健康記録(EHR)の普及に伴い、自然言語処理(NLP)をEHRに含まれる臨床自由テキストに適用することに大きな関心が寄せられている。
本研究は,院内退院ノートを用いた院内退院予測のタスクに,その予測の抽出的根拠を生み出す現在の最先端モデルであるinfocalを適用する。
本稿では,InfoCal が生成する抽出合理性を,臨床テキストデータに基づいて事前学習した競合トランスフォーマーベースモデルと比較する。
臨床言語領域の専門知識と、パフォーマンスおよびその後の解釈性に重要な事前訓練を伴って、選択した解釈可能性または特徴重要度を持つモデルが、様々な結果をもたらすことがわかった。
関連論文リスト
- Leveraging Large Language Models through Natural Language Processing to provide interpretable Machine Learning predictions of mental deterioration in real time [5.635300481123079]
公式推計によると、世界中で5000万人が認知症に罹患しており、毎年1000万人の新しい患者が増えている。
この目的のために、人工知能と計算言語学は自然言語分析、パーソナライズされたアセスメント、モニタリング、治療に活用することができる。
この仕事には、手頃で柔軟な、非侵襲的でパーソナライズされた診断システムを提供しています。
論文 参考訳(メタデータ) (2024-09-05T09:27:05Z) - Dr-LLaVA: Visual Instruction Tuning with Symbolic Clinical Grounding [53.629132242389716]
VLM(Vision-Language Models)は、医用画像を分析し、自然言語の相互作用に関与することによって、臨床医を支援する。
VLMはしばしば「幻覚的」な振る舞いを示し、文脈的マルチモーダル情報に基づかないテキスト出力を生成する。
本稿では,臨床推論の象徴的表現を用いて医療知識にVLMを基盤とする新たなアライメントアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-29T23:19:28Z) - An Interpretable Deep-Learning Framework for Predicting Hospital
Readmissions From Electronic Health Records [2.156208381257605]
そこで我々は,未計画の病院入退院を予測するための,新しい,解釈可能な深層学習フレームワークを提案する。
実際のデータを用いて,30日と180日以内に病院入退院の2つの予測課題について,本システムの有効性を検証した。
論文 参考訳(メタデータ) (2023-10-16T08:48:52Z) - QXAI: Explainable AI Framework for Quantitative Analysis in Patient
Monitoring Systems [9.29069202652354]
定量的分析のための説明可能なAI(QXAI)フレームワークは、回帰および分類タスクのポストホックモデル説明可能性と本質的な説明可能性によって提案される。
我々は,センサデータに基づく心拍数予測と身体活動の分類を行うために,人工ニューラルネットワーク (ANN) と注意に基づく双方向LSTM (BiLSTM) モデルを採用した。
論文 参考訳(メタデータ) (2023-09-19T03:50:30Z) - Self-Verification Improves Few-Shot Clinical Information Extraction [73.6905567014859]
大規模言語モデル (LLMs) は、数発のテキスト内学習を通じて臨床キュレーションを加速する可能性を示している。
正確性や解釈可能性に関する問題、特に健康のようなミッションクリティカルな領域ではまだ苦戦している。
本稿では,自己検証を用いた汎用的な緩和フレームワークについて検討する。このフレームワークはLLMを利用して,自己抽出のための証明を提供し,その出力をチェックする。
論文 参考訳(メタデータ) (2023-05-30T22:05:11Z) - SPeC: A Soft Prompt-Based Calibration on Performance Variability of
Large Language Model in Clinical Notes Summarization [50.01382938451978]
本稿では,ソフトプロンプトを用いたモデルに依存しないパイプラインを導入し,確率に基づく要約の利点を保ちながら分散を減少させる。
実験結果から,本手法は性能を向上するだけでなく,様々な言語モデルの分散を効果的に抑制することが明らかとなった。
論文 参考訳(メタデータ) (2023-03-23T04:47:46Z) - This Patient Looks Like That Patient: Prototypical Networks for
Interpretable Diagnosis Prediction from Clinical Text [56.32427751440426]
臨床実践においては、そのようなモデルは正確であるだけでなく、医師に解釈可能で有益な結果を与える必要がある。
本稿では,プロトタイプネットワークに基づく新しい手法であるProtoPatientを紹介する。
利用可能な2つの臨床データセット上でモデルを評価し、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-10-16T10:12:07Z) - DR.BENCH: Diagnostic Reasoning Benchmark for Clinical Natural Language
Processing [5.022185333260402]
診断推論ベンチマーク(DR.BENCH)は臨床診断推論能力を持つcNLPモデルの開発と評価のための新しいベンチマークである。
DR.BENCHは、訓練済みの言語モデルを評価するための自然言語生成フレームワークとして設計された最初の臨床スイートである。
論文 参考訳(メタデータ) (2022-09-29T16:05:53Z) - A Multimodal Transformer: Fusing Clinical Notes with Structured EHR Data
for Interpretable In-Hospital Mortality Prediction [8.625186194860696]
臨床ノートと構造化HRデータを融合し,院内死亡率の予測に役立てる新しいマルチモーダルトランスフォーマーを提案する。
そこで本研究では,臨床ノートにおいて重要な単語を選択するための統合的勾配(IG)手法を提案する。
また,臨床 BERT における領域適応型事前訓練とタスク適応型微調整の重要性についても検討した。
論文 参考訳(メタデータ) (2022-08-09T03:49:52Z) - VBridge: Connecting the Dots Between Features, Explanations, and Data
for Healthcare Models [85.4333256782337]
VBridgeは、臨床医の意思決定ワークフローに機械学習の説明をシームレスに組み込むビジュアル分析ツールである。
我々は,臨床医がMLの特徴に慣れていないこと,文脈情報の欠如,コホートレベルの証拠の必要性など,3つの重要な課題を特定した。
症例スタディと専門医4名のインタビューを通じて, VBridgeの有効性を実証した。
論文 参考訳(メタデータ) (2021-08-04T17:34:13Z) - Clinical Outcome Prediction from Admission Notes using Self-Supervised
Knowledge Integration [55.88616573143478]
臨床テキストからのアウトカム予測は、医師が潜在的なリスクを見落としないようにする。
退院時の診断,手術手順,院内死亡率,長期予測は4つの一般的な結果予測対象である。
複数の公開資料から得られた患者結果に関する知識を統合するために,臨床結果の事前学習を提案する。
論文 参考訳(メタデータ) (2021-02-08T10:26:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。