論文の概要: Anatomically-Grounded Fact Checking of Automated Chest X-ray Reports
- arxiv url: http://arxiv.org/abs/2412.02177v1
- Date: Tue, 03 Dec 2024 05:21:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-04 15:49:45.605969
- Title: Anatomically-Grounded Fact Checking of Automated Chest X-ray Reports
- Title(参考訳): 胸部X線自動検査の解剖学的検討
- Authors: R. Mahmood, K. C. L. Wong, D. M. Reyes, N. D'Souza, L. Shi, J. Wu, P. Kaviani, M. Kalra, G. Wang, P. Yan, T. Syeda-Mahmood,
- Abstract要約: そこで本稿では, 報告によって提示された発見とその位置の誤りを識別する, 説明可能なファクトチェックのための新しいモデルを提案する。
我々は,複数のSOTA自動報告ツールが生成した報告の修正において,結果のファクトチェックモデルとその有用性を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: With the emergence of large-scale vision-language models, realistic radiology reports may be generated using only medical images as input guided by simple prompts. However, their practical utility has been limited due to the factual errors in their description of findings. In this paper, we propose a novel model for explainable fact-checking that identifies errors in findings and their locations indicated through the reports. Specifically, we analyze the types of errors made by automated reporting methods and derive a new synthetic dataset of images paired with real and fake descriptions of findings and their locations from a ground truth dataset. A new multi-label cross-modal contrastive regression network is then trained on this datsaset. We evaluate the resulting fact-checking model and its utility in correcting reports generated by several SOTA automated reporting tools on a variety of benchmark datasets with results pointing to over 40\% improvement in report quality through such error detection and correction.
- Abstract(参考訳): 大規模視覚言語モデルが出現すると、単純なプロンプトによる入力として医療画像のみを用いてリアルな放射線学レポートを生成することができる。
しかし, その実用性は, 事実的誤りが原因で限られている。
本稿では,報告によって示された発見とその位置の誤りを識別する,説明可能なファクトチェックのための新しいモデルを提案する。
具体的には,自動報告手法による誤りの種類を分析し,実物と偽物とを組み合わせた画像の合成データセットを,地上の真実のデータセットから抽出する。
新たなマルチラベル・クロスモーダル・コントラスト回帰ネットワークがこのダットサセットでトレーニングされる。
我々は,様々なベンチマークデータセット上で,複数のSOTA自動報告ツールが生成した報告の誤り検出と修正により,報告品質が40%以上向上したことを示す結果に対して,結果のファクトチェックモデルとその有用性を評価した。
関連論文リスト
- Semantic Consistency-Based Uncertainty Quantification for Factuality in Radiology Report Generation [20.173287130474797]
生成医療ビジョン大言語モデル(VLLM)は幻覚を起こしやすく、不正確な診断情報を生成できる。
報告レベルと文レベルの不確実性の両方を提供するセマンティック一貫性に基づく不確実性定量化フレームワークを新たに導入する。
高不確実性レポートを控えることで、私たちのアプローチは事実性スコアを10ドル%改善し、20ドル%のレポートを拒否します。
論文 参考訳(メタデータ) (2024-12-05T20:43:39Z) - MedAutoCorrect: Image-Conditioned Autocorrection in Medical Reporting [31.710972402763527]
医療報告では、人や機械学習アルゴリズムが生み出す放射線学的な報告の正確さが重要である。
本稿では,これらの報告における不正確な画像条件の自動補正という新たな課題に取り組む。
本稿では,これらの誤りを指摘し,修正を行い,テキスト自動補正プロセスをシミュレートする2段階のフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-04T02:32:53Z) - ReXErr: Synthesizing Clinically Meaningful Errors in Diagnostic Radiology Reports [1.9106067578277455]
胸部X線レポート内の代表的エラーを生成するために,大規模言語モデルを活用する手法であるReXErrを紹介する。
我々は、人間とAIが生成したレポートでよくある誤りを捉えるエラーカテゴリを開発した。
本手法は, 臨床応用可能性を維持しつつ, 多様な誤差を注入する新しいサンプリング手法を用いている。
論文 参考訳(メタデータ) (2024-09-17T01:42:39Z) - Fact-Checking of AI-Generated Reports [10.458946019567891]
本稿では,関連画像を用いたAI生成レポートのファクトチェック手法を提案する。
具体的には,本研究は,実文と偽文とを区別し,実文と偽文とを関連づけることによって,実文と偽文とを区別する。
論文 参考訳(メタデータ) (2023-07-27T05:49:24Z) - Automated Labeling of German Chest X-Ray Radiology Reports using Deep
Learning [50.591267188664666]
本稿では,ルールベースのドイツ語CheXpertモデルによってラベル付けされたレポートに基づいて,ディープラーニングに基づくCheXpertラベル予測モデルを提案する。
その結果,3つのタスクすべてにおいて,ルールベースモデルを大幅に上回ったアプローチの有効性が示された。
論文 参考訳(メタデータ) (2023-06-09T16:08:35Z) - Towards Fine-Grained Information: Identifying the Type and Location of
Translation Errors [80.22825549235556]
既存のアプローチでは、エラーの位置と型を同期的に考慮することはできない。
我々はtextbf の追加と textbfomission エラーを予測するために FG-TED モデルを構築した。
実験により,本モデルではエラータイプと位置の同時同定が可能であり,最先端の結果が得られた。
論文 参考訳(メタデータ) (2023-02-17T16:20:33Z) - Discover, Explanation, Improvement: An Automatic Slice Detection
Framework for Natural Language Processing [72.14557106085284]
スライス検出モデル(SDM)は、データポイントの低パフォーマンスなグループを自動的に識別する。
本稿では,NLPタスクの分類のための "Discover, Explain, improve (DEIM)" というベンチマークを提案する。
評価の結果,Edisaは情報的セマンティックな特徴を持つ誤り発生データポイントを正確に選択できることがわかった。
論文 参考訳(メタデータ) (2022-11-08T19:00:00Z) - Correcting Diverse Factual Errors in Abstractive Summarization via
Post-Editing and Language Model Infilling [56.70682379371534]
提案手法は, 誤要約の修正において, 従来手法よりもはるかに優れていることを示す。
我々のモデルであるFactEditは、CNN/DMで11点、XSumで31点以上のファクトリティスコアを改善する。
論文 参考訳(メタデータ) (2022-10-22T07:16:19Z) - Understanding Factual Errors in Summarization: Errors, Summarizers,
Datasets, Error Detectors [105.12462629663757]
本研究では、既存の9つのデータセットから事実性エラーアノテーションを集約し、基礎となる要約モデルに従ってそれらを階層化する。
本稿では,この階層化ベンチマークにおいて,最近のChatGPTベースの指標を含む最先端の事実性指標の性能を比較し,その性能が様々な種類の要約モデルで大きく異なることを示す。
論文 参考訳(メタデータ) (2022-05-25T15:26:48Z) - Learning Visual-Semantic Embeddings for Reporting Abnormal Findings on
Chest X-rays [6.686095511538683]
本研究は放射線画像の異常所見の報告に焦点を当てる。
本稿では, レポートから異常な発見を識別し, 教師なしクラスタリングと最小限のルールで分類する手法を提案する。
本手法は, 異常所見を回収し, 臨床正当性およびテキスト生成量の両方で既存の世代モデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-06T04:18:18Z) - Chest X-ray Report Generation through Fine-Grained Label Learning [46.352966049776875]
画像から詳細な所見を学習する領域認識自動胸部X線診断レポート生成アルゴリズムを提案する。
また、画像にそのような記述子を割り当てる自動ラベリングアルゴリズムを開発し、発見の粗い記述ときめ細かい記述の両方を認識する新しいディープラーニングネットワークを構築した。
論文 参考訳(メタデータ) (2020-07-27T19:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。