論文の概要: RadFormer: Transformers with Global-Local Attention for Interpretable
and Accurate Gallbladder Cancer Detection
- arxiv url: http://arxiv.org/abs/2211.04793v1
- Date: Wed, 9 Nov 2022 10:40:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 17:05:57.194329
- Title: RadFormer: Transformers with Global-Local Attention for Interpretable
and Accurate Gallbladder Cancer Detection
- Title(参考訳): radformer: 解釈可能かつ正確な胆嚢癌検出のためのグローバル局所的注意を持つトランスフォーマー
- Authors: Soumen Basu, Mayank Gupta, Pratyaksha Rana, Pankaj Gupta, Chetan Arora
- Abstract要約: 医用画像解析のための解釈可能な表現を学習するための新しいディープニューラルネットワークアーキテクチャを提案する。
このアーキテクチャは,関心領域のグローバルな注目を喚起し,局所的な注目を伴う単語スタイルの深い特徴埋め込みを学習する。
我々の実験は、我々のモデルの検出精度が人間の放射線学者に勝っていることを示唆している。
- 参考スコア(独自算出の注目度): 17.694219750908413
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We propose a novel deep neural network architecture to learn interpretable
representation for medical image analysis. Our architecture generates a global
attention for region of interest, and then learns bag of words style deep
feature embeddings with local attention. The global, and local feature maps are
combined using a contemporary transformer architecture for highly accurate
Gallbladder Cancer (GBC) detection from Ultrasound (USG) images. Our
experiments indicate that the detection accuracy of our model beats even human
radiologists, and advocates its use as the second reader for GBC diagnosis. Bag
of words embeddings allow our model to be probed for generating interpretable
explanations for GBC detection consistent with the ones reported in medical
literature. We show that the proposed model not only helps understand decisions
of neural network models but also aids in discovery of new visual features
relevant to the diagnosis of GBC. Source-code and model will be available at
https://github.com/sbasu276/RadFormer
- Abstract(参考訳): 医用画像解析のための解釈可能な表現を学ぶための,新しい深層ニューラルネットワークアーキテクチャを提案する。
このアーキテクチャは,関心領域のグローバルな注目を喚起し,局所的な注目を伴う単語スタイルの深い特徴埋め込みを学習する。
グローバルかつ局所的な特徴マップは、超音波(USG)画像からの高精度胆嚢癌(GBC)検出のために、同時代のトランスフォーマーアーキテクチャを用いて合成される。
実験の結果,本モデルの検出精度はヒトの放射線科医よりも優れており,GBC診断における第2読影器としての利用が提唱されている。
単語の埋め込みにより、医学文献で報告されているGBC検出の解釈可能な説明を生成するために、我々のモデルを探索することができる。
提案モデルは,ニューラルネットワークモデルの決定を理解するだけでなく,GBCの診断に関連する新たな視覚的特徴の発見にも有効であることを示す。
ソースコードとモデルはhttps://github.com/sbasu276/RadFormerで入手できる。
関連論文リスト
- Gaze-directed Vision GNN for Mitigating Shortcut Learning in Medical Image [6.31072075551707]
GD-ViG(GD-ViG)と呼ばれる新しい視線指向ビジョンGNNを提案し,放射線科医の視覚パターンを専門知識として活用する。
2つの公開医療画像データセットの実験は、GD-ViGが最先端の手法より優れていることを示した。
論文 参考訳(メタデータ) (2024-06-20T07:16:41Z) - AWGUNET: Attention-Aided Wavelet Guided U-Net for Nuclei Segmentation in Histopathology Images [26.333686941245197]
本稿では,U-NetアーキテクチャとDenseNet-121バックボーンを組み合わせたセグメンテーション手法を提案する。
本モデルでは,ウェーブレット誘導チャネルアテンションモジュールを導入し,セル境界のデライン化を促進させる。
その結果,Mouseg と TNBC の2つの病理組織学的データセットを用いて,提案モデルの優位性を実証した。
論文 参考訳(メタデータ) (2024-06-12T17:10:27Z) - DeepLOC: Deep Learning-based Bone Pathology Localization and
Classification in Wrist X-ray Images [1.45543311565555]
本稿では,手首X線画像における骨病理像の局在と分類のための新しいアプローチを提案する。
提案手法は,手首X線解析における2つの重要な課題,骨の正確な局在化と異常の正確な分類に対処する。
論文 参考訳(メタデータ) (2023-08-24T12:06:10Z) - Medical Image Captioning via Generative Pretrained Transformers [57.308920993032274]
我々は、Show-Attend-Tell と GPT-3 という2つの言語モデルを組み合わせて、包括的で記述的な放射線学記録を生成する。
提案モデルは、Open-I、MIMIC-CXR、汎用MS-COCOの2つの医療データセットで検証される。
論文 参考訳(メタデータ) (2022-09-28T10:27:10Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Radiomics-Guided Global-Local Transformer for Weakly Supervised
Pathology Localization in Chest X-Rays [65.88435151891369]
Radiomics-Guided Transformer (RGT)は、テキストトグロバル画像情報と、テキストトグロバル情報とを融合する。
RGTは、画像トランスフォーマーブランチ、放射能トランスフォーマーブランチ、および画像と放射線情報を集約する融合層から構成される。
論文 参考訳(メタデータ) (2022-07-10T06:32:56Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Surpassing the Human Accuracy: Detecting Gallbladder Cancer from USG
Images with Curriculum Learning [17.694219750908413]
超音波(USG)画像からの胆嚢癌検出のためのCNNモデルの可能性について検討する。
USGは低コストとアクセシビリティのため、GB病で最も一般的な診断法である。
我々はGBCNetを提案し,その課題に対処する。
論文 参考訳(メタデータ) (2022-04-25T04:43:33Z) - Explainable multiple abnormality classification of chest CT volumes with
AxialNet and HiResCAM [89.2175350956813]
本稿では,容積医用画像における多変量分類の課題について紹介する。
本稿では,複数のインスタンス学習型畳み込みニューラルネットワークであるAxialNetを提案する。
そして、HiResCAMと3D許容領域を利用した新しいマスクロスにより、モデルの学習を改善することを目指す。
論文 参考訳(メタデータ) (2021-11-24T01:14:33Z) - Auxiliary Signal-Guided Knowledge Encoder-Decoder for Medical Report
Generation [107.3538598876467]
放射線技師の動作パターンを模倣する補助信号誘導知識デコーダ(ASGK)を提案する。
ASGKは、内的特徴融合と外部医療言語情報を統合して、医療知識の伝達と学習をガイドする。
論文 参考訳(メタデータ) (2020-06-06T01:00:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。