論文の概要: Indication as Prior Knowledge for Multimodal Disease Classification in
Chest Radiographs with Transformers
- arxiv url: http://arxiv.org/abs/2202.06076v1
- Date: Sat, 12 Feb 2022 14:23:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-18 07:29:16.669596
- Title: Indication as Prior Knowledge for Multimodal Disease Classification in
Chest Radiographs with Transformers
- Title(参考訳): 変圧器を有する胸部x線写真におけるマルチモーダル疾患分類の事前知識としての適応
- Authors: Grzegorz Jacenk\'ow, Alison Q. O'Neil, Sotirios A. Tsaftaris
- Abstract要約: 我々は、テキスト上で一様に事前学習されたトランスフォーマーネットワークを用いて、より優れた画像分類を促進するために、表示フィールドを使用する。
本手法をMIMIC-CXRデータセット上で評価し,適応場が分類性能に及ぼす影響について検討する。
- 参考スコア(独自算出の注目度): 15.841982111622626
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When a clinician refers a patient for an imaging exam, they include the
reason (e.g. relevant patient history, suspected disease) in the scan request;
this appears as the indication field in the radiology report. The
interpretation and reporting of the image are substantially influenced by this
request text, steering the radiologist to focus on particular aspects of the
image. We use the indication field to drive better image classification, by
taking a transformer network which is unimodally pre-trained on text (BERT) and
fine-tuning it for multimodal classification of a dual image-text input. We
evaluate the method on the MIMIC-CXR dataset, and present ablation studies to
investigate the effect of the indication field on the classification
performance. The experimental results show our approach achieves 87.8 average
micro AUROC, outperforming the state-of-the-art methods for unimodal (84.4) and
multimodal (86.0) classification. Our code is available at
https://github.com/jacenkow/mmbt.
- Abstract(参考訳): 臨床医は、画像検査のために患者を参照する場合、スキャン要求に理由(関連する患者歴、疑わしい疾患)が含まれる。
画像の解釈と報告は、この要求文に影響され、放射線学者に画像の特定の側面に焦点を当てるよう促す。
我々は、表示フィールドを用いて、一様事前学習された変換器ネットワーク(BERT)を、デュアル画像テキスト入力のマルチモーダル分類のために微調整することで、画像分類を改善する。
本手法をMIMIC-CXRデータセット上で評価し,適応場が分類性能に及ぼす影響について検討する。
実験の結果,ユニモーダル (84.4) とマルチモーダル (86.0) の分類では, 平均87.8マイクロオーロラを達成した。
私たちのコードはhttps://github.com/jacenkow/mmbtで利用可能です。
関連論文リスト
- MedIAnomaly: A comparative study of anomaly detection in medical images [26.319602363581442]
異常検出(AD)は、期待される正常なパターンから逸脱する異常なサンプルを検出することを目的としている。
医学的ADのための多くの方法が出現したにもかかわらず、公平で包括的な評価が欠如しているため、明確な結論が得られなかった。
本稿では,この問題に対処するため,比較を統一したベンチマークを構築した。
論文 参考訳(メタデータ) (2024-04-06T06:18:11Z) - VALD-MD: Visual Attribution via Latent Diffusion for Medical Diagnostics [0.0]
医用画像における視覚的属性は、医用画像の診断関連成分を明確にすることを目指している。
本稿では、潜在拡散モデルとドメイン固有大言語モデルを組み合わせた新しい生成的視覚属性手法を提案する。
結果として生じるシステムは、ゼロショット局所化疾患誘導を含む様々な潜在能力を示す。
論文 参考訳(メタデータ) (2024-01-02T19:51:49Z) - Mining Gaze for Contrastive Learning toward Computer-Assisted Diagnosis [61.089776864520594]
医用画像のテキストレポートの代替としてアイトラッキングを提案する。
医用画像を読み,診断する際に放射線科医の視線を追跡することにより,その視覚的注意と臨床的理由を理解することができる。
対照的な学習フレームワークのためのプラグイン・アンド・プレイモジュールとして,McGIP (McGIP) を導入した。
論文 参考訳(メタデータ) (2023-12-11T02:27:45Z) - Radiology Report Generation Using Transformers Conditioned with
Non-imaging Data [55.17268696112258]
本稿では,胸部X線画像と関連する患者の人口統計情報を統合したマルチモーダルトランスフォーマーネットワークを提案する。
提案ネットワークは、畳み込みニューラルネットワークを用いて、CXRから視覚的特徴を抽出し、その視覚的特徴と患者の人口統計情報のセマンティックテキスト埋め込みを組み合わせたトランスフォーマーベースのエンコーダデコーダネットワークである。
論文 参考訳(メタデータ) (2023-11-18T14:52:26Z) - MVC: A Multi-Task Vision Transformer Network for COVID-19 Diagnosis from
Chest X-ray Images [10.616065108433798]
本稿では,胸部X線画像を同時に分類し,入力データから影響領域を識別するマルチタスク・ビジョン・トランスフォーマ(MVC)を提案する。
提案手法はVision Transformer上に構築されているが,マルチタスク設定で学習能力を拡張している。
論文 参考訳(メタデータ) (2023-09-30T15:52:18Z) - HGT: A Hierarchical GCN-Based Transformer for Multimodal Periprosthetic
Joint Infection Diagnosis Using CT Images and Text [0.0]
補綴関節感染症(PJI)は重篤な合併症である。
現在,CT画像とPJIの数値テキストデータを組み合わせた統一診断基準が確立されていない。
本研究では,ディープラーニングとマルチモーダル技術に基づく診断手法であるHGTを紹介する。
論文 参考訳(メタデータ) (2023-05-29T11:25:57Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Multi-Label Retinal Disease Classification using Transformers [0.0]
新たな多ラベル網膜疾患データセットである MuReD が構築され、眼底疾患分類のために公開されているデータセットが多数使用されている。
広範な実験によって最適化されたトランスフォーマーベースのモデルは、画像解析と意思決定に使用される。
この手法は, 疾患検出と疾患分類のためのAUCスコアの7.9%と8.1%の精度で, 同じ課題における最先端の作業よりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T22:06:52Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。