論文の概要: 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data
- arxiv url: http://arxiv.org/abs/2002.04251v3
- Date: Mon, 22 Jan 2024 20:05:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 20:28:44.285427
- Title: 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data
- Title(参考訳): 2.75d: 小型データのための2次元特徴への3次元医用画像表現による学習の促進
- Authors: Xin Wang, Ruisheng Su, Weiyi Xie, Wenjin Wang, Yi Xu, Ritse Mann,
Jungong Han, Tao Tan
- Abstract要約: 3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
- 参考スコア(独自算出の注目度): 54.223614679807994
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In medical-data driven learning, 3D convolutional neural networks (CNNs) have
started to show superior performance to 2D CNNs in numerous deep learning
tasks, proving the added value of 3D spatial information in feature
representation. However, the difficulty in collecting more training samples to
converge, more computational resources and longer execution time make this
approach less applied. Also, applying transfer learning on 3D CNN is
challenging due to a lack of publicly available pre-trained 3D models. To
tackle these issues, we proposed a novel 2D strategical representation of
volumetric data, namely 2.75D. In this work, the spatial information of 3D
images is captured in a single 2D view by a spiral-spinning technique. As a
result, 2D CNN networks can also be used to learn volumetric information.
Besides, we can fully leverage pre-trained 2D CNNs for downstream vision
problems. We also explore a multi-view 2.75D strategy, 2.75D 3 channels
(2.75Dx3), to boost the advantage of 2.75D. We evaluated the proposed methods
on three public datasets with different modalities or organs (Lung CT, Breast
MRI, and Prostate MRI), against their 2D, 2.5D, and 3D counterparts in
classification tasks. Results show that the proposed methods significantly
outperform other counterparts when all methods were trained from scratch on the
lung dataset. Such performance gain is more pronounced with transfer learning
or in the case of limited training data. Our methods also achieved comparable
performance on other datasets. In addition, our methods achieved a substantial
reduction in time consumption of training and inference compared with the 2.5D
or 3D method.
- Abstract(参考訳): 医学データ駆動学習において、3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れた性能を示し始め、特徴表現に3D空間情報の付加価値が証明されている。
しかし、より多くのトレーニングサンプルを集結させるのが難しく、計算資源が増え、実行時間が長くなるため、このアプローチは適用しにくくなる。
また、3D CNNにトランスファーラーニングを適用することは、公開トレーニング済みの3Dモデルがないために困難である。
これらの課題に対処するため,我々は2.75Dという,ボリュームデータの2次元戦略的表現を提案する。
本研究では3次元画像の空間情報をスパイラルスピン法により単一の2次元ビューでキャプチャする。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
さらに、下流視覚問題に事前学習した2D CNNを活用できる。
また、マルチビュー 2.75D 戦略 2.75D 3 チャネル (2.75Dx3) も検討し、2.75D の利点を高める。
分類作業における2D, 2.5D, 3Dに対して, 形態や臓器の異なる3つの公開データセット(Lung CT, Breast MRI, Prostate MRI)を用いて提案手法の評価を行った。
その結果,提案手法は肺データセットのスクラッチから全手法をトレーニングした場合,他の手法よりも有意に優れていた。
このような性能向上は、転送学習や限られたトレーニングデータの場合よりも顕著である。
我々の手法は他のデータセットで同等のパフォーマンスを達成した。
さらに, 2.5D法や3D法と比較して, トレーニングと推論の時間消費を大幅に削減した。
関連論文リスト
- PonderV2: Pave the Way for 3D Foundation Model with A Universal
Pre-training Paradigm [114.47216525866435]
本稿では,効率的な3D表現の獲得を容易にするために,新しいユニバーサル3D事前学習フレームワークを提案する。
PonderV2は、11の室内および屋外ベンチマークで最先端のパフォーマンスを達成したことで、その効果が示唆された。
論文 参考訳(メタデータ) (2023-10-12T17:59:57Z) - Interpretable 2D Vision Models for 3D Medical Images [47.75089895500738]
本研究では,3次元画像処理における中間特徴表現を用いた2次元ネットワークの適応手法を提案する。
我々は、ベンチマークとして3D MedMNISTデータセットと、既存の手法に匹敵する数百の高分解能CTまたはMRIスキャンからなる2つの実世界のデータセットを示す。
論文 参考訳(メタデータ) (2023-07-13T08:27:09Z) - ULIP-2: Towards Scalable Multimodal Pre-training for 3D Understanding [96.95120198412395]
本稿では,3次元形状の全体言語記述を自動的に生成するトリオモーダル事前学習フレームワークを提案する。
入力として3Dデータしか必要とせず、手動の3Dアノテーションを必要としないため、大規模なデータセットにスケーラブルである。
NNとShapeNetの2つの大規模3Dデータセットの実験を行い、これらを3Dポイントクラウド、キャプション、トレーニングのための言語という3つのモーダルデータセットで拡張する。
実験により、NN-2は、ゼロショット3D分類、ファインタニングによる標準3D分類、3D3Dという3つの下流タスクにおいて有意義な利点を示すことが示された。
論文 参考訳(メタデータ) (2023-05-14T23:14:09Z) - Video Pretraining Advances 3D Deep Learning on Chest CT Tasks [63.879848037679224]
大規模自然画像分類データセットの事前学習は、データスカース2D医療タスクのモデル開発に役立っている。
これらの2Dモデルは、3Dコンピュータビジョンベンチマークで3Dモデルに勝っている。
3Dモデルのためのビデオ事前トレーニングにより、より小さなデータセットでより高性能な3D医療タスクを実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-02T14:46:58Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Data Efficient 3D Learner via Knowledge Transferred from 2D Model [30.077342050473515]
我々は、RGB-D画像を介して強力な2Dモデルから知識を伝達することで、3Dタスクのデータ不足に対処する。
擬似ラベルを用いたRGB-D画像の強化には,2次元画像の強いセマンティック・セマンティック・セマンティック・セマンティック・セマンティクス・モデルを用いる。
提案手法は,3次元ラベルの効率向上に適した既存の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2022-03-16T09:14:44Z) - Learning from 2D: Pixel-to-Point Knowledge Transfer for 3D Pretraining [21.878815180924832]
豊富な2Dデータセットから学んだ2Dネットワークを活用した新しい3Dプリトレーニング手法を提案する。
実験により,2次元知識を事前学習した3次元モデルにより,実世界の様々な3次元ダウンストリームタスクのパフォーマンスが向上することを示した。
論文 参考訳(メタデータ) (2021-04-10T05:40:42Z) - Semantic Segmentation of Neuronal Bodies in Fluorescence Microscopy
Using a 2D+3D CNN Training Strategy with Sparsely Annotated Data [0.0]
二次元CNNはニューロンの局在において良い結果をもたらすが、不正確な表面再構成を引き起こす。
3D CNNは手動で大規模なアノテートデータを必要とするため、かなりの人的労力を要する。
スパース2Dアノテーションを用いたネイティブ3D CNNモデルのトレーニングのための2段階戦略を提案する。
論文 参考訳(メタデータ) (2020-08-31T18:01:02Z) - 3D Self-Supervised Methods for Medical Imaging [7.65168530693281]
本稿では,プロキシタスクの形式で,5種類の自己教師型手法の3次元バージョンを提案する。
提案手法は,未ラベルの3次元画像からニューラルネットワークの特徴学習を容易にし,専門家のアノテーションに必要なコストを削減することを目的としている。
開発したアルゴリズムは、3D Contrastive Predictive Coding, 3D Rotation Prediction, 3D Jigsaw puzzles, Relative 3D patch location, 3D Exemplar Networkである。
論文 参考訳(メタデータ) (2020-06-06T09:56:58Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。