論文の概要: End-to-End Learning of Multi-Organ Implicit Surfaces from 3D Medical Imaging Data
- arxiv url: http://arxiv.org/abs/2509.12068v1
- Date: Mon, 15 Sep 2025 15:52:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.380141
- Title: End-to-End Learning of Multi-Organ Implicit Surfaces from 3D Medical Imaging Data
- Title(参考訳): 3次元医用画像データを用いた多臓器誘発表面の終末学習
- Authors: Farahdiba Zarin, Nicolas Padoy, Jérémy Dana, Vinkle Srivastav,
- Abstract要約: ImplMOReは3次元医用画像からの多臓器再構成のための暗黙の表面表現を用いたエンドツーエンドのディープラーニング手法である。
占有関数の連続的な性質を活用することにより、明示的表現に基づく表面再構成手法よりも優れた性能を発揮する。
- 参考スコア(独自算出の注目度): 8.279683600959418
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The fine-grained surface reconstruction of different organs from 3D medical imaging can provide advanced diagnostic support and improved surgical planning. However, the representation of the organs is often limited by the resolution, with a detailed higher resolution requiring more memory and computing footprint. Implicit representations of objects have been proposed to alleviate this problem in general computer vision by providing compact and differentiable functions to represent the 3D object shapes. However, architectural and data-related differences prevent the direct application of these methods to medical images. This work introduces ImplMORe, an end-to-end deep learning method using implicit surface representations for multi-organ reconstruction from 3D medical images. ImplMORe incorporates local features using a 3D CNN encoder and performs multi-scale interpolation to learn the features in the continuous domain using occupancy functions. We apply our method for single and multiple organ reconstructions using the totalsegmentator dataset. By leveraging the continuous nature of occupancy functions, our approach outperforms the discrete explicit representation based surface reconstruction approaches, providing fine-grained surface details of the organ at a resolution higher than the given input image. The source code will be made publicly available at: https://github.com/CAMMA-public/ImplMORe
- Abstract(参考訳): 3次元医用画像から異なる臓器の表面を微細に再構築することで、高度な診断支援と手術計画の改善が可能になる。
しかしながら、臓器の表現は解像度によって制限されることが多く、より詳細な高解像度ではメモリとコンピューティングのフットプリントが必要とされる。
3次元物体形状を表すコンパクトで微分可能な関数を提供することにより、物体の暗黙の表現がコンピュータビジョンにおいてこの問題を緩和するために提案されている。
しかし,これらの手法の医用画像への直接的適用は,建築的・データ的差異により妨げられる。
本研究は、3次元医用画像からの多臓器再構成のための暗黙の表面表現を用いたエンドツーエンドのディープラーニング手法であるImplMOReを紹介する。
ImplMOReは3D CNNエンコーダを使ってローカル機能を組み込み、マルチスケールの補間を行い、占有関数を使って連続領域の機能を学習する。
本手法を総分類器データセットを用いて1臓器再建と複数臓器再建に応用する。
本手法は,占有関数の連続的な性質を活用することにより,個々の明示的表現に基づく表面再構成手法よりも優れ,臓器の微細な表面詳細を与えられた入力画像よりも高い解像度で提供する。
ソースコードは、https://github.com/CAMMA-public/ImplMOReで公開されます。
関連論文リスト
- Volumetric Reconstruction of Prostatectomy Specimens from Histology [0.0]
前立腺癌に対する外科的治療は、しばしば臓器切除、すなわち前立腺切除術を含む。
診断プロセスは、レポートで表現しにくい広範囲で複雑な情報を生成する。
この領域の既存のアプローチは、労働集約的で、臨床画像モダリティへの統合が困難であることが証明されている。
3D-SLIVERは、オープンソースの3DSlicer拡張として実装された、シンプルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-11-29T22:33:49Z) - Large Spatial Model: End-to-end Unposed Images to Semantic 3D [79.94479633598102]
大空間モデル(LSM)は、RGB画像を直接意味的放射場に処理する。
LSMは、単一のフィードフォワード操作における幾何学、外観、意味を同時に推定する。
新しい視点で言語と対話することで、多目的ラベルマップを生成することができる。
論文 参考訳(メタデータ) (2024-10-24T17:54:42Z) - μ-Net: A Deep Learning-Based Architecture for μ-CT Segmentation [2.012378666405002]
X線計算マイクロトモグラフィー(mu-CT)は、医学および生物学的サンプルの内部解剖の高解像度な3D画像を生成する非破壊的手法である。
3D画像から関連情報を抽出するには、興味のある領域のセマンティックセグメンテーションが必要である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、Carassius auratusの心臓の完全な形態を自動分割する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:29:08Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - Multi-View Vertebra Localization and Identification from CT Images [57.56509107412658]
我々は,CT画像からの多視点椎体局在と同定を提案する。
本研究では,3次元問題を異なる視点における2次元局所化および識別タスクに変換する。
本手法は,多視点グローバル情報を自然に学習することができる。
論文 参考訳(メタデータ) (2023-07-24T14:43:07Z) - A Point Cloud Generative Model via Tree-Structured Graph Convolutions
for 3D Brain Shape Reconstruction [31.436531681473753]
センサスキャンなどの物理的手法を用いて,術中3次元形状情報を得ることはほとんど不可能である。
本稿では,1つの2次元画像を用いて脳の3次元点雲(PC)を再構成するGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-21T07:57:37Z) - A Geometry-Informed Deep Learning Framework for Ultra-Sparse 3D
Tomographic Image Reconstruction [13.44786774177579]
超疎3次元トモグラフィ画像再構成のための幾何学インフォームド深層学習フレームワークを構築した。
本研究は,3次元CT画像の高精細化を実現するために,既知の先行画像のシームレスな包摂が不可欠であることを実証する。
論文 参考訳(メタデータ) (2021-05-25T06:20:03Z) - CoTr: Efficiently Bridging CNN and Transformer for 3D Medical Image
Segmentation [95.51455777713092]
畳み込みニューラルネットワーク(CNN)は、現代の3D医療画像セグメンテーションのデファクトスタンダードとなっている。
本稿では,bf畳み込みニューラルネットワークとbfトランスbf(cotr)を効率良く橋渡しし,正確な3次元医用画像分割を実現する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T13:34:22Z) - Detailed 3D Human Body Reconstruction from Multi-view Images Combining
Voxel Super-Resolution and Learned Implicit Representation [12.459968574683625]
多視点画像から詳細な3次元人体を再構築する粗い方法を提案する。
粗い3Dモデルは、マルチスケールな特徴に基づいて暗黙表現を学習することによって推定される。
洗練された3D人体モデルは、詳細を保存できるボクセル超解像によって製造することができる。
論文 参考訳(メタデータ) (2020-12-11T08:07:39Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。