論文の概要: Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis
- arxiv url: http://arxiv.org/abs/2205.02847v2
- Date: Wed, 17 May 2023 07:16:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-18 21:15:25.519219
- Title: Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis
- Title(参考訳): super images -- 3次元医用画像解析の新しい2次元展望
- Authors: Ikboljon Sobirov, Numan Saeed, and Mohammad Yaqub
- Abstract要約: トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In medical imaging analysis, deep learning has shown promising results. We
frequently rely on volumetric data to segment medical images, necessitating the
use of 3D architectures, which are commended for their capacity to capture
interslice context. However, because of the 3D convolutions, max pooling,
up-convolutions, and other operations utilized in these networks, these
architectures are often more inefficient in terms of time and computation than
their 2D equivalents. Furthermore, there are few 3D pretrained model weights,
and pretraining is often difficult. We present a simple yet effective 2D method
to handle 3D data while efficiently embedding the 3D knowledge during training.
We propose transforming volumetric data into 2D super images and segmenting
with 2D networks to solve these challenges. Our method generates a
super-resolution image by stitching slices side by side in the 3D image. We
expect deep neural networks to capture and learn these properties spatially
despite losing depth information. This work aims to present a novel perspective
when dealing with volumetric data, and we test the hypothesis using CNN and ViT
networks as well as self-supervised pretraining. While attaining equal, if not
superior, results to 3D networks utilizing only 2D counterparts, the model
complexity is reduced by around threefold. Because volumetric data is
relatively scarce, we anticipate that our approach will entice more studies,
particularly in medical imaging analysis.
- Abstract(参考訳): 医用画像解析において、深層学習は有望な結果を示した。
医用画像のセグメント化にはボリュームデータに頻繁に依存し, 3D アーキテクチャの活用が必要であり, クロススライス・コンテクストを捉える能力が期待できる。
しかし、3次元畳み込み、最大プーリング、アップ畳み込み、その他の操作がこれらのネットワークで利用されるため、これらのアーキテクチャは、しばしば2次元の等価値よりも時間と計算の点で非効率である。
さらに、事前訓練されたモデル重量は少なく、事前訓練は難しいことが多い。
トレーニング中に3次元知識を効率よく埋め込みながら,3次元データを扱うシンプルな2次元手法を提案する。
ボリュームデータを2次元スーパーイメージに変換し、2次元ネットワークでセグメント化することでこれらの課題を解決する。
本手法は3次元画像にスライスを並べて超高解像度画像を生成する。
深層ニューラルネットワークは、深層情報を失うことなく、これらの特性を空間的に捉え、学習することを期待する。
本研究は,ボリュームデータを扱う際の新たな視点を示し,cnnとvitネットワークと自己教師付き事前学習を用いて仮説を検証した。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
ボリュームデータは比較的少ないため、我々のアプローチはより多くの研究、特に医用画像解析に役立てることが期待できる。
関連論文リスト
- Cross-Dimensional Medical Self-Supervised Representation Learning Based on a Pseudo-3D Transformation [68.60747298865394]
擬似3D変換(CDSSL-P3D)に基づく新しい三次元SSLフレームワークを提案する。
具体的には、2D画像を3Dデータに整合したフォーマットに変換するim2colアルゴリズムに基づく画像変換を提案する。
この変換は2次元および3次元データのシームレスな統合を可能にし、3次元医用画像解析のための相互教師あり学習を容易にする。
論文 参考訳(メタデータ) (2024-06-03T02:57:25Z) - Video Pretraining Advances 3D Deep Learning on Chest CT Tasks [63.879848037679224]
大規模自然画像分類データセットの事前学習は、データスカース2D医療タスクのモデル開発に役立っている。
これらの2Dモデルは、3Dコンピュータビジョンベンチマークで3Dモデルに勝っている。
3Dモデルのためのビデオ事前トレーニングにより、より小さなデータセットでより高性能な3D医療タスクを実現することができることを示す。
論文 参考訳(メタデータ) (2023-04-02T14:46:58Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Joint Embedding of 2D and 3D Networks for Medical Image Anomaly
Detection [0.8122270502556374]
本研究では, 接合による3次元ネットワークの強度と2次元ネットワークの強度を組み合わせる手法を開発した。
提案手法は分類タスクと分割タスクの両方において,SoTA法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-12-21T11:28:52Z) - Decomposing 3D Neuroimaging into 2+1D Processing for Schizophrenia
Recognition [25.80846093248797]
我々は2+1Dフレームワークで3Dデータを処理し、巨大なImageNetデータセット上に事前トレーニングされた強力な2D畳み込みニューラルネットワーク(CNN)ネットワークを利用して3Dニューロイメージング認識を実現することを提案する。
特に3次元磁気共鳴イメージング(MRI)の計測値は、隣接するボクセル位置に応じて2次元スライスに分解される。
グローバルプーリングは、アクティベーションパターンが機能マップ上にわずかに分散されているため、冗長な情報を除去するために適用される。
2次元CNNモデルにより処理されていない3次元の文脈情報を集約するために,チャネルワイドおよびスライスワイズ畳み込みを提案する。
論文 参考訳(メタデータ) (2022-11-21T15:22:59Z) - Data Efficient 3D Learner via Knowledge Transferred from 2D Model [30.077342050473515]
我々は、RGB-D画像を介して強力な2Dモデルから知識を伝達することで、3Dタスクのデータ不足に対処する。
擬似ラベルを用いたRGB-D画像の強化には,2次元画像の強いセマンティック・セマンティック・セマンティック・セマンティック・セマンティクス・モデルを用いる。
提案手法は,3次元ラベルの効率向上に適した既存の最先端技術よりも優れている。
論文 参考訳(メタデータ) (2022-03-16T09:14:44Z) - 3D-to-2D Distillation for Indoor Scene Parsing [78.36781565047656]
大規模3次元データリポジトリから抽出した3次元特徴を有効活用し,RGB画像から抽出した2次元特徴を向上する手法を提案する。
まず,事前学習した3Dネットワークから3D知識を抽出して2Dネットワークを監督し,トレーニング中の2D特徴からシミュレーションされた3D特徴を学習する。
次に,2次元の正規化方式を設計し,2次元特徴と3次元特徴のキャリブレーションを行った。
第3に,非ペアの3dデータを用いたトレーニングのフレームワークを拡張するために,意味を意識した対向的トレーニングモデルを設計した。
論文 参考訳(メタデータ) (2021-04-06T02:22:24Z) - 3D Self-Supervised Methods for Medical Imaging [7.65168530693281]
本稿では,プロキシタスクの形式で,5種類の自己教師型手法の3次元バージョンを提案する。
提案手法は,未ラベルの3次元画像からニューラルネットワークの特徴学習を容易にし,専門家のアノテーションに必要なコストを削減することを目的としている。
開発したアルゴリズムは、3D Contrastive Predictive Coding, 3D Rotation Prediction, 3D Jigsaw puzzles, Relative 3D patch location, 3D Exemplar Networkである。
論文 参考訳(メタデータ) (2020-06-06T09:56:58Z) - Exemplar Fine-Tuning for 3D Human Model Fitting Towards In-the-Wild 3D
Human Pose Estimation [107.07047303858664]
3次元の地平線アノテーションを持つ大規模な人的データセットは、野生では入手が困難である。
既存の2Dデータセットを高品質な3Dポーズマッチングで拡張することで、この問題に対処する。
結果として得られるアノテーションは、3Dのプロシージャネットワークをスクラッチからトレーニングするのに十分である。
論文 参考訳(メタデータ) (2020-04-07T20:21:18Z) - 2.75D: Boosting learning by representing 3D Medical imaging to 2D
features for small data [54.223614679807994]
3D畳み込みニューラルネットワーク(CNN)は、多くのディープラーニングタスクにおいて、2D CNNよりも優れたパフォーマンスを示し始めている。
3D CNNにトランスファー学習を適用することは、パブリックにトレーニング済みの3Dモデルがないために困難である。
本研究では,ボリュームデータの2次元戦略的表現,すなわち2.75Dを提案する。
その結果,2次元CNNネットワークをボリューム情報学習に用いることが可能となった。
論文 参考訳(メタデータ) (2020-02-11T08:24:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。