論文の概要: 3D-GMIC: an efficient deep neural network to find small objects in large
3D images
- arxiv url: http://arxiv.org/abs/2210.08645v1
- Date: Sun, 16 Oct 2022 21:58:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 17:58:22.149867
- Title: 3D-GMIC: an efficient deep neural network to find small objects in large
3D images
- Title(参考訳): 3D-GMIC:大きな3D画像で小さな物体を見つけるための効率的なディープニューラルネットワーク
- Authors: Jungkyu Park, Jakub Ch{\l}\k{e}dowski, Stanis{\l}aw Jastrz\k{e}bski,
Jan Witowski, Yanqi Xu, Linda Du, Sushma Gaddam, Eric Kim, Alana Lewin, Ujas
Parikh, Anastasia Plaunova, Sardius Chen, Alexandra Millet, James Park,
Kristine Pysarenko, Shalin Patel, Julia Goldberg, Melanie Wegener, Linda Moy,
Laura Heacock, Beatriu Reig, Krzysztof J. Geras
- Abstract要約: 3Dイメージングは、臓器解剖に関する空間情報を提供することにより、より正確な診断を可能にする。
AIモデルのトレーニングに3Dイメージを使用することは、その2Dモデルよりも数十から数百倍のピクセルで構成されているため、計算的に困難である。
本稿では,3次元医用画像の完全解像度で計算効率の良い分類を可能にするニューラルネットワークアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 41.334361182700164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D imaging enables a more accurate diagnosis by providing spatial information
about organ anatomy. However, using 3D images to train AI models is
computationally challenging because they consist of tens or hundreds of times
more pixels than their 2D counterparts. To train with high-resolution 3D
images, convolutional neural networks typically resort to downsampling them or
projecting them to two dimensions. In this work, we propose an effective
alternative, a novel neural network architecture that enables computationally
efficient classification of 3D medical images in their full resolution.
Compared to off-the-shelf convolutional neural networks, 3D-GMIC uses
77.98%-90.05% less GPU memory and 91.23%-96.02% less computation. While our
network is trained only with image-level labels, without segmentation labels,
it explains its classification predictions by providing pixel-level saliency
maps. On a dataset collected at NYU Langone Health, including 85,526 patients
with full-field 2D mammography (FFDM), synthetic 2D mammography, and 3D
mammography (DBT), our model, the 3D Globally-Aware Multiple Instance
Classifier (3D-GMIC), achieves a breast-wise AUC of 0.831 (95% CI: 0.769-0.887)
in classifying breasts with malignant findings using DBT images. As DBT and 2D
mammography capture different information, averaging predictions on 2D and 3D
mammography together leads to a diverse ensemble with an improved breast-wise
AUC of 0.841 (95% CI: 0.768-0.895). Our model generalizes well to an external
dataset from Duke University Hospital, achieving an image-wise AUC of 0.848
(95% CI: 0.798-0.896) in classifying DBT images with malignant findings.
- Abstract(参考訳): 3dイメージングは、臓器解剖に関する空間情報を提供することで、より正確な診断を可能にする。
しかし、AIモデルを訓練するために3D画像を使用することは、その2D画像の数十倍から数百倍のピクセルで構成されているため、計算的に困難である。
高解像度の3D画像をトレーニングするために、畳み込みニューラルネットワークは通常、それらをダウンサンプリングするか、2次元に投影する。
そこで本研究では,3次元医用画像のフル解像度での計算効率の高い分類を可能にするニューラルネットワークアーキテクチャを提案する。
既製の畳み込みニューラルネットワークと比較して、3D-GMICは77.98%-90.05%のGPUメモリと91.23%-96.02%の計算量を使用する。
ネットワークは画像レベルのラベルのみでトレーニングされているが、セグメンテーションラベルは不要だが、ピクセルレベルのサリエンシーマップを提供することで分類の予測を説明している。
広視野2Dマンモグラフィー (FFDM) , 合成2Dマンモグラフィー (DBT) および3Dマンモグラフィー (DBT) の85,526例を含むNYU Langone Health で収集されたデータセットでは, 本モデルでは3D Globally-Aware Multiple Instance Identificationifier (3D-GMIC) を用いて乳房温存AUC(95% CI: 0.769-0.887) を行い,DBT画像を用いた悪性所見の分類を行う。
DBT と 2D のマンモグラフィーは異なる情報を取得するため、2D と 3D のマンモグラフィーにおける平均的な予測は、 0.841 (95% CI: 0.768-0.895) の乳房回りのAUCを改良した様々なアンサンブルをもたらす。
本モデルはデューク大学病院の外部データセットによく当てはまり, 悪性所見を伴うDBT画像の分類において 0.848 (95% CI: 0.798-0.896) の画像ワイド AUC を実現する。
関連論文リスト
- Medical Slice Transformer: Improved Diagnosis and Explainability on 3D Medical Images with DINOv2 [1.6275928583134276]
医用スライストランスフォーマー(MST)フレームワークを導入し,3次元医用画像解析に2次元自己監督モデルを適用した。
MSTは畳み込みニューラルネットワークと比較して、診断精度と説明性の向上を提供する。
論文 参考訳(メタデータ) (2024-11-24T12:11:11Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - 3D Convolutional Neural Networks for Stalled Brain Capillary Detection [72.21315180830733]
脳毛細血管の血流停止などの脳血管障害は、アルツハイマー病の認知機能低下と病態形成と関連している。
本稿では,3次元畳み込みニューラルネットワークを用いた脳画像中の毛細血管の自動検出のための深層学習に基づくアプローチについて述べる。
本手法は,他の手法よりも優れ,0.85マシューズ相関係数,85%感度,99.3%特異性を達成した。
論文 参考訳(メタデータ) (2021-04-04T20:30:14Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z) - 3D Self-Supervised Methods for Medical Imaging [7.65168530693281]
本稿では,プロキシタスクの形式で,5種類の自己教師型手法の3次元バージョンを提案する。
提案手法は,未ラベルの3次元画像からニューラルネットワークの特徴学習を容易にし,専門家のアノテーションに必要なコストを削減することを目的としている。
開発したアルゴリズムは、3D Contrastive Predictive Coding, 3D Rotation Prediction, 3D Jigsaw puzzles, Relative 3D patch location, 3D Exemplar Networkである。
論文 参考訳(メタデータ) (2020-06-06T09:56:58Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。