論文の概要: 2D Convolutional Neural Networks for 3D Digital Breast Tomosynthesis
Classification
- arxiv url: http://arxiv.org/abs/2002.12314v1
- Date: Thu, 27 Feb 2020 18:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 09:32:57.709094
- Title: 2D Convolutional Neural Networks for 3D Digital Breast Tomosynthesis
Classification
- Title(参考訳): 3次元ディジタル乳房結合分類のための2次元畳み込みニューラルネットワーク
- Authors: Yu Zhang, Xiaoqin Wang, Hunter Blanton, Gongbo Liang, Xin Xing, and
Nathan Jacobs
- Abstract要約: 分類のための自動手法を開発する際の主な課題は、スライス数の可変処理とスライス・ツー・スライスの変更の維持である。
本稿では,両課題を同時に克服する,新しい2次元畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案手法は,スライス数にかかわらず全ボリュームで動作するため,特徴抽出に2次元CNNを事前学習することが可能である。
- 参考スコア(独自算出の注目度): 20.245580301060418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated methods for breast cancer detection have focused on 2D mammography
and have largely ignored 3D digital breast tomosynthesis (DBT), which is
frequently used in clinical practice. The two key challenges in developing
automated methods for DBT classification are handling the variable number of
slices and retaining slice-to-slice changes. We propose a novel deep 2D
convolutional neural network (CNN) architecture for DBT classification that
simultaneously overcomes both challenges. Our approach operates on the full
volume, regardless of the number of slices, and allows the use of pre-trained
2D CNNs for feature extraction, which is important given the limited amount of
annotated training data. In an extensive evaluation on a real-world clinical
dataset, our approach achieves 0.854 auROC, which is 28.80% higher than
approaches based on 3D CNNs. We also find that these improvements are stable
across a range of model configurations.
- Abstract(参考訳): 乳がん検診の自動化手法は2Dマンモグラフィーに焦点をあてており、臨床で頻繁に用いられる3Dデジタル乳腺合成(DBT)は無視されている。
dbt分類の自動化手法を開発する上での2つの重要な課題は、スライス数の可変処理とスライスからスライスへの変更の保持である。
両課題を同時に克服するDBT分類のための,新しい2次元畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案手法は,スライス数に関わらず全ボリュームで動作するため,注釈付きトレーニングデータが少ないため,事前学習した2D CNNを特徴抽出に利用することができる。
実世界の臨床データセットに対する広範な評価では,3次元CNNに基づくアプローチよりも28.80%高い0.854 auROCを達成した。
また、これらの改善はさまざまなモデル構成で安定しています。
関連論文リスト
- Self-supervised learning via inter-modal reconstruction and feature
projection networks for label-efficient 3D-to-2D segmentation [4.5206601127476445]
ラベル効率のよい3D-to-2Dセグメンテーションのための新しい畳み込みニューラルネットワーク(CNN)と自己教師付き学習(SSL)手法を提案する。
異なるデータセットの結果から、提案されたCNNは、ラベル付きデータに制限のあるシナリオにおいて、Diceスコアの最大8%まで、アートの状態を著しく改善することが示された。
論文 参考訳(メタデータ) (2023-07-06T14:16:25Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - Dual Multi-scale Mean Teacher Network for Semi-supervised Infection
Segmentation in Chest CT Volume for COVID-19 [76.51091445670596]
CT(Computed tomography)データから肺感染症を自動的に検出することは、COVID-19と戦う上で重要な役割を担っている。
現在の新型コロナウイルス感染症のセグメンテーションのほとんどは、主に3Dシーケンシャルな制約を欠いた2D CT画像に依存している。
既存の3次元CTセグメンテーション法では,3次元ボリュームにおける複数レベルの受容場サイズを達成できない単一スケールの表現に焦点が当てられている。
論文 参考訳(メタデータ) (2022-11-10T13:11:21Z) - Multi-Slice Dense-Sparse Learning for Efficient Liver and Tumor
Segmentation [4.150096314396549]
ディープ畳み込みニューラルネットワーク(DCNN)は2次元および3次元の医用画像セグメンテーションにおいて大きな成功を収めている。
そこで我々は,DCNNを正規化するための入力として,密接な隣接スライスと疎隣接スライスを抽出するデータの観点から,新しい密集スプリストレーニングフローを提案する。
また、ネットワークの観点から2.5Dの軽量nnU-Netを設計し、その効率を向上させるために深度的に分離可能な畳み込みを採用する。
論文 参考訳(メタデータ) (2021-08-15T15:29:48Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - Uniformizing Techniques to Process CT scans with 3D CNNs for
Tuberculosis Prediction [5.270882613122642]
深部2次元畳み込みニューラルネットワーク(CNN)を用いたボリュームデータにおける医用画像解析への共通アプローチ
個々のスライスを2D CNNで独立に扱うと、意図したタスクのパフォーマンスが低下する深度情報を意図的に破棄する。
上記の問題に対処するためのボリューム均一化手法のセットを評価する。
画像情報のみを活用する全手法に勝るテストセットに対して,曲線下面積 (AUC) と二分分類精度 (ACC) を67.5%と報告した。
論文 参考訳(メタデータ) (2020-07-26T21:53:47Z) - Single-view 2D CNNs with Fully Automatic Non-nodule Categorization for
False Positive Reduction in Pulmonary Nodule Detection [29.597929819870203]
肺結節検出では、第1段階である候補検出は、疑わしい肺結節を検出することを目的としている。
この課題は,1) 結節数と非結節数の不均衡,2) 非結節数のクラス内多様性により困難である。
本稿では,既存の3次元CNN手法よりも優れた2次元CNNのアンサンブルを用いた新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T23:18:52Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。