論文の概要: Cross-dimensional transfer learning in medical image segmentation with
deep learning
- arxiv url: http://arxiv.org/abs/2307.15872v1
- Date: Sat, 29 Jul 2023 02:50:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 19:08:01.912839
- Title: Cross-dimensional transfer learning in medical image segmentation with
deep learning
- Title(参考訳): 深層学習を用いた医用画像分割におけるクロス次元転送学習
- Authors: Hicham Messaoudi, Ahror Belaid, Douraied Ben Salem, Pierre-Henri Conze
- Abstract要約: 本研究では,自然画像に基づく2次元分類ネットワークの効率性を2次元・3次元一次元・マルチモーダルな医用画像セグメンテーションアプリケーションへ効率的に転送する方法を提案する。
本稿では,2次元事前学習エンコーダを高次元U-Netに埋め込むことによる重量移動と,2次元セグメントネットワークを高次元のU-Netに拡張することによる次元移動という2つの重要な原理に基づいて,新しいアーキテクチャを設計した。
- 参考スコア(独自算出の注目度): 0.4588028371034407
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Over the last decade, convolutional neural networks have emerged and advanced
the state-of-the-art in various image analysis and computer vision
applications. The performance of 2D image classification networks is constantly
improving and being trained on databases made of millions of natural images.
However, progress in medical image analysis has been hindered by limited
annotated data and acquisition constraints. These limitations are even more
pronounced given the volumetry of medical imaging data. In this paper, we
introduce an efficient way to transfer the efficiency of a 2D classification
network trained on natural images to 2D, 3D uni- and multi-modal medical image
segmentation applications. In this direction, we designed novel architectures
based on two key principles: weight transfer by embedding a 2D pre-trained
encoder into a higher dimensional U-Net, and dimensional transfer by expanding
a 2D segmentation network into a higher dimension one. The proposed networks
were tested on benchmarks comprising different modalities: MR, CT, and
ultrasound images. Our 2D network ranked first on the CAMUS challenge dedicated
to echo-cardiographic data segmentation and surpassed the state-of-the-art.
Regarding 2D/3D MR and CT abdominal images from the CHAOS challenge, our
approach largely outperformed the other 2D-based methods described in the
challenge paper on Dice, RAVD, ASSD, and MSSD scores and ranked third on the
online evaluation platform. Our 3D network applied to the BraTS 2022
competition also achieved promising results, reaching an average Dice score of
91.69% (91.22%) for the whole tumor, 83.23% (84.77%) for the tumor core, and
81.75% (83.88%) for enhanced tumor using the approach based on weight
(dimensional) transfer. Experimental and qualitative results illustrate the
effectiveness of our methods for multi-dimensional medical image segmentation.
- Abstract(参考訳): 過去10年間で、畳み込みニューラルネットワークが登場し、様々な画像分析やコンピュータビジョンアプリケーションにおける最先端の進歩を遂げてきた。
2d画像分類ネットワークの性能は、常に改善され、何百万もの自然画像のデータベース上で訓練されている。
しかし, 医用画像解析の進歩は, 限られた注釈付きデータと取得制約によって妨げられている。
これらの制限は、医療画像データの量によってさらに顕著になる。
本稿では,自然画像に訓練された2次元分類ネットワークの効率を,2次元,3次元,マルチモーダルの医用画像セグメンテーションアプリケーションへ効率的に転送する方法を提案する。
この方法では, 2次元事前学習エンコーダを高次元のu-netに埋め込み, 2次元のセグメンテーションネットワークを高次元のu-netに拡張して, 重みの伝達を行う, という2つの原則に基づいて, 新たなアーキテクチャを設計した。
提案したネットワークはMR, CT, 超音波画像の様々なモードからなるベンチマークでテストされた。
われわれの2Dネットワークは、心エコー画像データセグメンテーションに特化したCAMUSチャレンジでトップにランクインし、最先端の技術を抜いた。
CHAOSチャレンジの2D/3D MRおよびCT腹部画像について,Dice, RAVD, ASSD, MSSDの課題論文に記載されている他の2Dベースの手法よりも優れており,オンライン評価プラットフォームでは第3位である。
BraTS 2022に応用した3Dネットワークは, 腫瘍全体の91.69% (91.22%) , 腫瘍コア全体の83.23% (84.77%) , 重量(次元)移動に基づく腫瘍増強のための81.75% (83.88%) に到達し, 有望な結果を得た。
実験および定性的な結果から,多次元医用画像分割法の有効性が示された。
関連論文リスト
- Deep Convolutional Neural Networks on Multiclass Classification of Three-Dimensional Brain Images for Parkinson's Disease Stage Prediction [2.931680194227131]
パーキンソン病の病期を正確に予測できるモデルを開発した。
我々は3次元脳画像全体を入力として使用した。
予測過程において,異なるスライスの重要性を考慮に入れた注意機構を組み込んだ。
論文 参考訳(メタデータ) (2024-10-31T05:40:08Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Med-DANet: Dynamic Architecture Network for Efficient Medical Volumetric
Segmentation [13.158995287578316]
我々は,Med-DANetという動的アーキテクチャネットワークを提案し,効率的な精度と効率のトレードオフを実現する。
入力された3次元MRIボリュームのスライス毎に,提案手法は決定ネットワークによってスライス固有の決定を学習する。
提案手法は, 従来の3次元MRI脳腫瘍セグメント化法と比較して, 同等あるいは良好な結果が得られる。
論文 参考訳(メタデータ) (2022-06-14T03:25:58Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Simultaneous Alignment and Surface Regression Using Hybrid 2D-3D
Networks for 3D Coherent Layer Segmentation of Retina OCT Images [33.99874168018807]
本研究では,ハイブリッド2D-3D畳み込みニューラルネットワーク(CNN)を用いた新しいフレームワークを提案し,OCTから連続した3次元網膜層表面を得る。
本フレームワークは, 層分割精度とクロスBスキャン3D連続性の両方の観点から, 最先端の2D手法よりも優れた結果が得られる。
論文 参考訳(メタデータ) (2022-03-04T15:55:09Z) - Mutual Attention-based Hybrid Dimensional Network for Multimodal Imaging
Computer-aided Diagnosis [4.657804635843888]
マルチモーダル3次元医用画像分類(MMNet)のための新しい相互注意型ハイブリッド次元ネットワークを提案する。
ハイブリッド次元ネットワークは2D CNNと3D畳み込みモジュールを統合し、より深くより情報的な特徴マップを生成する。
さらに,画像モダリティの異なる類似の立体視領域において,各領域の整合性を構築するために,ネットワーク内の相互注意フレームワークを設計する。
論文 参考訳(メタデータ) (2022-01-24T02:31:25Z) - Efficient embedding network for 3D brain tumor segmentation [0.33727511459109777]
本稿では,脳腫瘍の3次元的セマンティックセグメンテーションを目的とした2次元分類網の性能伝達手法について検討する。
入力データが3Dの場合、エンコーダの第1層は、効率の良いNetネットワークの入力に適合するために、第3次元の削減に費やされる。
BraTS 2020チャレンジの検証とテストデータに関する実験結果から,提案手法が有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-11-22T16:17:29Z) - Volumetric Medical Image Segmentation: A 3D Deep Coarse-to-fine
Framework and Its Adversarial Examples [74.92488215859991]
本稿では,これらの課題に効果的に取り組むために,新しい3Dベースの粗粒度フレームワークを提案する。
提案した3Dベースのフレームワークは、3つの軸すべてに沿ってリッチな空間情報を活用できるため、2Dよりも大きなマージンで優れている。
我々は,3つのデータセット,NIH膵データセット,JHMI膵データセット,JHMI病理嚢胞データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-10-29T15:39:19Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。