論文の概要: ACAT: Adversarial Counterfactual Attention for Classification and
Detection in Medical Imaging
- arxiv url: http://arxiv.org/abs/2303.15421v1
- Date: Mon, 27 Mar 2023 17:43:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 14:09:34.179091
- Title: ACAT: Adversarial Counterfactual Attention for Classification and
Detection in Medical Imaging
- Title(参考訳): ACAT:医療画像の分類と検出のための対人的対人的注意
- Authors: Alessandro Fontanella, Antreas Antoniou, Wenwen Li, Joanna Wardlaw,
Grant Mair, Emanuele Trucco, Amos Storkey
- Abstract要約: 画像特徴を異なるスケールで変調するソフト空間アテンションマスクを得るために,サリエンシマップを用いたフレームワークを提案する。
ACATは、脳CTスキャンの病変の基準分類精度を71.39%から72.55%に引き上げ、肺CTスキャンの新型コロナウイルス関連所見を67.71%から70.84%に引き上げた。
- 参考スコア(独自算出の注目度): 57.173627147817484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In some medical imaging tasks and other settings where only small parts of
the image are informative for the classification task, traditional CNNs can
sometimes struggle to generalise. Manually annotated Regions of Interest (ROI)
are sometimes used to isolate the most informative parts of the image. However,
these are expensive to collect and may vary significantly across annotators. To
overcome these issues, we propose a framework that employs saliency maps to
obtain soft spatial attention masks that modulate the image features at
different scales. We refer to our method as Adversarial Counterfactual
Attention (ACAT). ACAT increases the baseline classification accuracy of
lesions in brain CT scans from 71.39% to 72.55% and of COVID-19 related
findings in lung CT scans from 67.71% to 70.84% and exceeds the performance of
competing methods. We investigate the best way to generate the saliency maps
employed in our architecture and propose a way to obtain them from
adversarially generated counterfactual images. They are able to isolate the
area of interest in brain and lung CT scans without using any manual
annotations. In the task of localising the lesion location out of 6 possible
regions, they obtain a score of 65.05% on brain CT scans, improving the score
of 61.29% obtained with the best competing method.
- Abstract(参考訳): 一部の医療画像のタスクや、画像の小さな部分だけが分類タスクに役に立つような設定では、伝統的なcnnは時々一般化に苦労することがある。
手動で注釈付けされた関心領域(ROI)は、画像の最も情報性の高い部分を分離するために使われることがある。
しかし、これらは収集に高価であり、アノテータによって大きく異なる可能性がある。
これらの課題を克服するために,画像特徴を異なるスケールで変調するソフト空間アテンションマスクを得るために,サリエンシマップを用いたフレームワークを提案する。
本稿では,この手法を,AAT(Adversarial Counterfactual Attention)と呼ぶ。
ACATは、脳CTスキャンの病変の基準分類精度を71.39%から72.55%に引き上げ、肺CTスキャンの新型コロナウイルス関連所見を67.71%から70.84%に引き上げ、競合する方法よりも高い。
我々は,我々のアーキテクチャで採用するサリエンシーマップを生成する最善の方法を調査し,敵対的に生成された対物画像からそれを取得する方法を提案する。
手動アノテーションを使わずに、脳と肺のctスキャンに興味のある領域を分離することができる。
6つの可能な領域の病変位置をローカライズする作業において、彼らは65.05%のスコアを脳CTで取得し、最高の競合法で得られる61.29%のスコアを改善した。
関連論文リスト
- Topology and Intersection-Union Constrained Loss Function for Multi-Region Anatomical Segmentation in Ocular Images [5.628938375586146]
眼筋無力症(OMG)は早期に発見される稀かつ困難な疾患である。
現在、この目的のために利用可能なデータセットやツールは存在しない。
我々は,小さなトレーニングデータセットを用いた性能向上を目的とした,新しいトポロジと共役制約付き損失関数(TIU損失)を提案する。
論文 参考訳(メタデータ) (2024-11-01T13:17:18Z) - CTARR: A fast and robust method for identifying anatomical regions on CT images via atlas registration [0.09130220606101362]
我々はCT解剖学的領域認識のための新しい汎用手法であるCTARRを紹介する。
この方法は、ディープラーニングベースのCT画像解析パイプラインの事前処理ステップとして機能する。
提案手法は, アトラス登録に基づいて, 無ラベルCTスキャンから1つまたは複数の境界ボックスとして符号化された解剖学的領域を抽出する高速かつ堅牢な方法を提供する。
論文 参考訳(メタデータ) (2024-10-03T08:52:21Z) - Cross-modulated Few-shot Image Generation for Colorectal Tissue
Classification [58.147396879490124]
XM-GANと名づけられた少数ショット生成法は,1塩基と1対の参照組織像を入力とし,高品質で多様な画像を生成する。
我々の知る限りでは、大腸組織像の少数ショット生成を最初に調査した人物である。
論文 参考訳(メタデータ) (2023-04-04T17:50:30Z) - Generative Adversarial Networks for Weakly Supervised Generation and Evaluation of Brain Tumor Segmentations on MR Images [0.0]
本研究は2次元磁気共鳴画像におけるセグメント異常に対する弱教師付きアプローチを示す。
我々は,癌画像を健全な変種に変換するGAN(Generative Adversarial Network)を訓練する。
非共役な変種は、弱監督的な方法で分割を評価するためにも用いられる。
論文 参考訳(メタデータ) (2022-11-10T00:04:46Z) - FetReg2021: A Challenge on Placental Vessel Segmentation and
Registration in Fetoscopy [52.3219875147181]
2-Twin Transfusion Syndrome (TTTS) に対するレーザー光凝固法が広く採用されている。
このプロシージャは、視野が限られたこと、フェトスコープの操作性が悪いこと、視認性が悪いこと、照明の変動性のために特に困難である。
コンピュータ支援介入(CAI)は、シーン内の重要な構造を特定し、ビデオモザイクを通して胎児の視野を広げることで、外科医に意思決定支援と文脈認識を提供する。
7つのチームがこの課題に参加し、そのモデルパフォーマンスを、6フェットから658ピクセルの注釈付き画像の見当たらないテストデータセットで評価した。
論文 参考訳(メタデータ) (2022-06-24T23:44:42Z) - Classification of COVID-19 Patients with their Severity Level from Chest
CT Scans using Transfer Learning [3.667495151642095]
新型コロナウイルスの感染拡大を受け、病院のベッドなど医療機器の需要が高まっている。
これを念頭に置いて、私たちは新型コロナウイルスの検出と、胸部CTスキャンとDeep Learning事前訓練モデルを用いて重症度を評価する研究を共有しています。
私たちのモデルは、新型コロナウイルスとその重症度を検出するのに役立ちます。
論文 参考訳(メタデータ) (2022-05-27T06:22:09Z) - Preservation of High Frequency Content for Deep Learning-Based Medical
Image Classification [74.84221280249876]
大量の胸部ラジオグラフィーの効率的な分析は、医師や放射線技師を助けることができる。
本稿では,視覚情報の効率的な識別と符号化のための離散ウェーブレット変換(DWT)を提案する。
論文 参考訳(メタデータ) (2022-05-08T15:29:54Z) - Investigating and Exploiting Image Resolution for Transfer
Learning-based Skin Lesion Classification [3.110738188734789]
CNNは皮膚病変の分類に有効であることが示されている。
本稿では,入力画像サイズが細調整CNNの皮膚病変分類性能に及ぼす影響について検討する。
以上の結果から,64×64ピクセルの非常に小さな画像を用いて分類性能を低下させる一方,128×128ピクセルの画像では画像サイズが大きくなり,分類精度がわずかに向上した。
論文 参考訳(メタデータ) (2020-06-25T21:51:24Z) - Synergistic Learning of Lung Lobe Segmentation and Hierarchical
Multi-Instance Classification for Automated Severity Assessment of COVID-19
in CT Images [61.862364277007934]
3次元CT画像におけるCOVID-19の重症度自動評価のための相乗的学習フレームワークを提案する。
マルチタスクのディープネットワーク(M$2$UNet)が開発され、新型コロナウイルス患者の重症度を評価する。
われわれのM$2$UNetはパッチレベルのエンコーダと肺葉分画のためのセグメンテーションサブネットワークと重度評価のための分類サブネットワークから構成されている。
論文 参考訳(メタデータ) (2020-05-08T03:16:15Z) - Y-Net for Chest X-Ray Preprocessing: Simultaneous Classification of
Geometry and Segmentation of Annotations [70.0118756144807]
この研究は、機械学習アルゴリズムに胸部X線入力のための一般的な前処理ステップを導入する。
VGG11エンコーダをベースとした改良Y-Netアーキテクチャを用いて,ラジオグラフィの幾何学的配向とセグメンテーションを同時に学習する。
対照画像の27.0%,34.9%に対し,95.8%,96.2%のアノテーションマスクが認められた。
論文 参考訳(メタデータ) (2020-05-08T02:16:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。