論文の概要: Ranking Significant Discrepancies in Clinical Reports
- arxiv url: http://arxiv.org/abs/2001.06674v1
- Date: Sat, 18 Jan 2020 14:47:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-10 05:21:17.265331
- Title: Ranking Significant Discrepancies in Clinical Reports
- Title(参考訳): 臨床報告における有意差
- Authors: Sean MacAvaney, Arman Cohan, Nazli Goharian, Ross Filice
- Abstract要約: 医療ミスは公衆衛生上の問題であり、世界中で死因となっている。
多くの医療センターや病院では、医療従事者が予備的な医療報告書を書き、報告は後にレビューされ、改訂され、より経験豊富な医師によって確定する報告システムを使用している。
毎日大量のレポートが作成されているため、最終的なレポートをすべて手作業で徹底的にレビューして、そのようなエラーを見つけてそこから学ぶことは、しばしば困難である。
予備版と最終版の間にテキストとオントロジが重なる新しいランキング手法を提案する。
これにより、医療実践者は、その解釈がもっとも多い報告から容易に識別し、学習することができる。
- 参考スコア(独自算出の注目度): 35.98516275988634
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical errors are a major public health concern and a leading cause of death
worldwide. Many healthcare centers and hospitals use reporting systems where
medical practitioners write a preliminary medical report and the report is
later reviewed, revised, and finalized by a more experienced physician. The
revisions range from stylistic to corrections of critical errors or
misinterpretations of the case. Due to the large quantity of reports written
daily, it is often difficult to manually and thoroughly review all the
finalized reports to find such errors and learn from them. To address this
challenge, we propose a novel ranking approach, consisting of textual and
ontological overlaps between the preliminary and final versions of reports. The
approach learns to rank the reports based on the degree of discrepancy between
the versions. This allows medical practitioners to easily identify and learn
from the reports in which their interpretation most substantially differed from
that of the attending physician (who finalized the report). This is a crucial
step towards uncovering potential errors and helping medical practitioners to
learn from such errors, thus improving patient-care in the long run. We
evaluate our model on a dataset of radiology reports and show that our approach
outperforms both previously-proposed approaches and more recent language models
by 4.5% to 15.4%.
- Abstract(参考訳): 医療ミスは公衆衛生上の問題であり、世界中で死因となっている。
多くの医療センターや病院では、医療従事者が予備的な医療報告書を書き、報告は後にレビューされ、改訂され、より経験豊富な医師によって確定する報告システムを使用している。
修正は様式的から批判的エラーの修正やケースの誤解まで様々である。
毎日大量のレポートが書き込まれているため、手作業ですべての最終レポートを徹底的にレビューして、そのようなエラーを見つけ、そこから学ぶことは困難である。
この課題に対処するために,レポートの予備版と最終版の間で,テキスト的およびオントロジ的に重なり合う新しいランキング手法を提案する。
このアプローチは、バージョン間の相違度に基づいて、レポートのランク付けを学ぶ。
これにより、医師は、その解釈が主治医(レポートを確定した医師)の解釈と大きく異なる報告から容易に識別し、学習することができる。
これは潜在的なエラーを解明し、医療従事者がそのようなエラーから学ぶのを助ける上で重要なステップであり、長期的には患者のケアを改善する。
放射線医学レポートのデータセット上でモデルを評価し,提案手法が従来のアプローチとより最近の言語モデルの両方を4.5%から15.4%上回ることを示した。
関連論文リスト
- Resource-Efficient Medical Report Generation using Large Language Models [3.2627279988912194]
医療報告生成は胸部X線画像の放射線診断レポートを自動作成する作業である。
本稿では,医療報告生成のタスクに視覚対応大規模言語モデル(LLM)を活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T05:08:18Z) - ReXErr: Synthesizing Clinically Meaningful Errors in Diagnostic Radiology Reports [1.9106067578277455]
胸部X線レポート内の代表的エラーを生成するために,大規模言語モデルを活用する手法であるReXErrを紹介する。
我々は、人間とAIが生成したレポートでよくある誤りを捉えるエラーカテゴリを開発した。
本手法は, 臨床応用可能性を維持しつつ, 多様な誤差を注入する新しいサンプリング手法を用いている。
論文 参考訳(メタデータ) (2024-09-17T01:42:39Z) - Consensus, dissensus and synergy between clinicians and specialist
foundation models in radiology report generation [32.26270073540666]
世界中の放射線技師の不足は専門家のケアへのアクセスを制限し、重労働を課している。
視覚言語モデルを用いた自動レポート生成の最近の進歩は、状況を改善するための明確な可能性を示唆している。
我々は、胸部X線写真のための最新のレポート生成システム、textitFlamingo-CXRを構築し、放射線学データに基づくよく知られた視覚言語基盤モデルを微調整する。
論文 参考訳(メタデータ) (2023-11-30T05:38:34Z) - Reading Radiology Imaging Like The Radiologist [3.218449686637963]
我々は、より正確で現実的に整合性のある疾患記述を生成するために、事実整合キャプションジェネレータを設計する。
本研究の枠組みは,病型指向マスクの検索により,CXRデータベースから最も類似した疾患の報告を見つけることができる。
論文 参考訳(メタデータ) (2023-07-12T05:36:47Z) - "Nothing Abnormal": Disambiguating Medical Reports via Contrastive
Knowledge Infusion [6.9551174393701345]
コントラスト型事前学習と摂動型書き換えに基づく書き換えアルゴリズムを提案する。
胸部報告に基づくOpenI-Annotatedと、一般的な医療報告に基づくVA-Annotatedの2つのデータセットを作成しました。
提案アルゴリズムは,高内容忠実度で少ないあいまいな方法で文を効果的に書き換える。
論文 参考訳(メタデータ) (2023-05-15T02:01:20Z) - Exploring and Distilling Posterior and Prior Knowledge for Radiology
Report Generation [55.00308939833555]
PPKEDには、Posterior Knowledge Explorer (PoKE), Prior Knowledge Explorer (PrKE), Multi-domain Knowledge Distiller (MKD)の3つのモジュールが含まれている。
PoKEは後部知識を探求し、視覚データのバイアスを軽減するために明確な異常な視覚領域を提供する。
PrKEは、以前の医学知識グラフ(医学知識)と以前の放射線学レポート(作業経験)から以前の知識を探り、テキストデータのバイアスを軽減する。
論文 参考訳(メタデータ) (2021-06-13T11:10:02Z) - Semi-Supervised Variational Reasoning for Medical Dialogue Generation [70.838542865384]
医療対話生成には,患者の状態と医師の行動の2つの重要な特徴がある。
医療対話生成のためのエンドツーエンドの変分推論手法を提案する。
行動分類器と2つの推論検出器から構成される医師政策ネットワークは、拡張推論能力のために提案される。
論文 参考訳(メタデータ) (2021-05-13T04:14:35Z) - Unifying Relational Sentence Generation and Retrieval for Medical Image
Report Composition [142.42920413017163]
現在の手法は、個々のケースのデータセットバイアスにより、しばしば最も一般的な文を生成する。
テンプレート検索と文生成を一体化し、共通およびまれな異常に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-09T04:33:27Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z) - CLARA: Clinical Report Auto-completion [56.206459591367405]
CLARA(CLinicit Al It Report It Auto-Completion)は、医師のアンカーワードと部分的に完成した文に基づいて、文章でレポートを生成するインタラクティブな方法である。
実験では,X線で0.393 CIDEr,0.248 BLEU-4,脳波で0.482 CIDEr,0.491 BLEU-4を得た。
論文 参考訳(メタデータ) (2020-02-26T18:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。