論文の概要: AlignShift: Bridging the Gap of Imaging Thickness in 3D Anisotropic
Volumes
- arxiv url: http://arxiv.org/abs/2005.01969v2
- Date: Wed, 8 Jul 2020 10:03:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 13:41:58.308949
- Title: AlignShift: Bridging the Gap of Imaging Thickness in 3D Anisotropic
Volumes
- Title(参考訳): AlignShift:3次元異方性ボリュームにおける画像厚のギャップを埋める
- Authors: Jiancheng Yang, Yi He, Xiaoyang Huang, Jingwei Xu, Xiaodan Ye, Guangyu
Tao, Bingbing Ni
- Abstract要約: 従来の芸術では、薄いスライスに3Dアプローチ、厚いスライスに2Dアプローチを使う傾向がある。
理論上,任意の2次元事前学習ネットワークを太さ対応の3Dネットワークに変換するためのパラメータフリー演算子であるAlignShiftを提案する。
広汎な病変検出のための32K病変からなる大規模DeepLesionベンチマークの実験を行い,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 39.60505597455117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper addresses a fundamental challenge in 3D medical image processing:
how to deal with imaging thickness. For anisotropic medical volumes, there is a
significant performance gap between thin-slice (mostly 1mm) and thick-slice
(mostly 5mm) volumes. Prior arts tend to use 3D approaches for the thin-slice
and 2D approaches for the thick-slice, respectively. We aim at a unified
approach for both thin- and thick-slice medical volumes. Inspired by recent
advances in video analysis, we propose AlignShift, a novel parameter-free
operator to convert theoretically any 2D pretrained network into
thickness-aware 3D network. Remarkably, the converted networks behave like 3D
for the thin-slice, nevertheless degenerate to 2D for the thick-slice
adaptively. The unified thickness-aware representation learning is achieved by
shifting and fusing aligned "virtual slices" as per the input imaging
thickness. Extensive experiments on public large-scale DeepLesion benchmark,
consisting of 32K lesions for universal lesion detection, validate the
effectiveness of our method, which outperforms previous state of the art by
considerable margins without whistles and bells. More importantly, to our
knowledge, this is the first method that bridges the performance gap between
thin- and thick-slice volumes by a unified framework. To improve research
reproducibility, our code in PyTorch is open source at
https://github.com/M3DV/AlignShift.
- Abstract(参考訳): 本稿では,3次元医用画像処理における基本的な課題について述べる。
異方性医用ボリュームでは、薄いスライス(1mm)と厚いスライス(5mm)の間に大きなパフォーマンスギャップがある。
従来の芸術では、薄いスライスに3Dアプローチ、厚いスライスに2Dアプローチを使う傾向がある。
我々は,薄肉および厚肉の医療用ボリュームの統一的アプローチを目指す。
ビデオ解析の最近の進歩に触発されて,理論上は任意の2次元事前学習ネットワークを太さ対応の3Dネットワークに変換する新しいパラメータフリー演算子であるAlignShiftを提案する。
興味深いことに、変換されたネットワークは薄いスライスでは3Dのように振る舞うが、厚いスライスでは2Dに適応的に縮退する。
入力画像厚みに応じてアライメントされた「仮想スライス」をシフト・融合することにより、統一された厚み認識表現学習を実現する。
広汎性病変検出のための32k病変からなる,公衆の大規模深部結節ベンチマークに関する広範囲な実験により,前回と比べ,ホイッスルやベルを伴わない有意なマージンで先行する手法の有効性が検証された。
さらに重要なことに、この方法は統一フレームワークによって薄いスライスボリュームと厚いスライスボリュームのパフォーマンスギャップを埋める最初の方法です。
PyTorch のコードは https://github.com/M3DV/AlignShift でオープンソース化されている。
関連論文リスト
- DiffusionBlend: Learning 3D Image Prior through Position-aware Diffusion Score Blending for 3D Computed Tomography Reconstruction [12.04892150473192]
位置認識型3D-パッチ拡散スコアブレンディングによる3D画像の学習を可能にする新しいフレームワークを提案する。
我々のアルゴリズムは、従来の最先端手法よりも優れた、あるいは同等の計算効率を持つ。
論文 参考訳(メタデータ) (2024-06-14T17:47:50Z) - Any2Point: Empowering Any-modality Large Models for Efficient 3D Understanding [83.63231467746598]
我々は,Any2Pointというパラメータ効率のよい大規模モデル(ビジョン,言語,音声)を3次元理解に活用する手法を紹介した。
入力された3Dポイントと元の1Dまたは2D位置との相関関係を示す3D-to-any (1Dまたは2D)仮想プロジェクション戦略を提案する。
論文 参考訳(メタデータ) (2024-04-11T17:59:45Z) - CSAM: A 2.5D Cross-Slice Attention Module for Anisotropic Volumetric
Medical Image Segmentation [8.507902378556981]
ボリューム医学データ、特にMRIデータの大部分は異方性である。
3次元および純粋に2次元の深層学習に基づくセグメンテーション法は、そのようなボリュームデータを扱うには不十分である。
我々は、最小限のトレーニング可能なパラメータを持つクロススライス注意モジュール(CSAM)を提供し、ボリューム内のすべてのスライスに関する情報をキャプチャします。
論文 参考訳(メタデータ) (2023-11-08T02:13:26Z) - Multi-dimension unified Swin Transformer for 3D Lesion Segmentation in
Multiple Anatomical Locations [1.7413461132662074]
3次元病変分割のためのMDU-ST(multi-dimension unified Swin transformer)と呼ばれる新しいモデルを提案する。
ネットワークの性能はDice similarity coefficient(DSC)とHausdorff distance(HD)で内部の3D病変データセットを用いて評価される。
提案手法は, 放射線学および腫瘍成長モデル研究を支援するために, 自動3次元病変セグメンテーションを行うために用いられる。
論文 参考訳(メタデータ) (2023-09-04T21:24:00Z) - Magic123: One Image to High-Quality 3D Object Generation Using Both 2D
and 3D Diffusion Priors [104.79392615848109]
Magic123は、高品質でテクスチャ化された3Dメッシュのための、2段階の粗大なアプローチである。
最初の段階では、粗い幾何学を生成するために、神経放射場を最適化する。
第2段階では、視覚的に魅力的なテクスチャを持つ高分解能メッシュを生成するために、メモリ効率のよい微分可能なメッシュ表現を採用する。
論文 参考訳(メタデータ) (2023-06-30T17:59:08Z) - Improving 3D Imaging with Pre-Trained Perpendicular 2D Diffusion Models [52.529394863331326]
本稿では,2つの垂直2次元拡散モデルを用いて3次元逆問題の解法を提案する。
MRI Z軸超解像, 圧縮センシングMRI, スパースCTなどの3次元医用画像再構成作業に有効である。
論文 参考訳(メタデータ) (2023-03-15T08:28:06Z) - Super Images -- A New 2D Perspective on 3D Medical Imaging Analysis [0.0]
トレーニング中に3次元知識を効率的に埋め込んで3次元データを扱うための,シンプルで効果的な2次元手法を提案する。
本手法は3次元画像にスライスを並べて超高分解能画像を生成する。
2次元ネットワークのみを利用した3次元ネットワークを実現する一方で、モデルの複雑さはおよそ3倍に減少する。
論文 参考訳(メタデータ) (2022-05-05T09:59:03Z) - Asymmetric 3D Context Fusion for Universal Lesion Detection [55.61873234187917]
3Dネットワークは、3Dコンテキストでは強いが、教師付き事前トレーニングがない。
既存の3Dコンテキスト融合演算子は空間対称に設計されており、畳み込みのように各2Dスライス上で同一の操作を行う。
本研究では, 異なる重みを持つ非対称な3次元コンテキスト融合演算子 (A3D) を提案し, 異なる2次元スライスから3次元コンテキストを融合させる。
論文 参考訳(メタデータ) (2021-09-17T16:25:10Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Uniformizing Techniques to Process CT scans with 3D CNNs for
Tuberculosis Prediction [5.270882613122642]
深部2次元畳み込みニューラルネットワーク(CNN)を用いたボリュームデータにおける医用画像解析への共通アプローチ
個々のスライスを2D CNNで独立に扱うと、意図したタスクのパフォーマンスが低下する深度情報を意図的に破棄する。
上記の問題に対処するためのボリューム均一化手法のセットを評価する。
画像情報のみを活用する全手法に勝るテストセットに対して,曲線下面積 (AUC) と二分分類精度 (ACC) を67.5%と報告した。
論文 参考訳(メタデータ) (2020-07-26T21:53:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。