論文の概要: Learning to Rearrange Voxels in Binary Segmentation Masks for Smooth
Manifold Triangulation
- arxiv url: http://arxiv.org/abs/2108.05269v1
- Date: Wed, 11 Aug 2021 15:11:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-12 13:44:19.598604
- Title: Learning to Rearrange Voxels in Binary Segmentation Masks for Smooth
Manifold Triangulation
- Title(参考訳): Smooth Manifold Triangulationのための二分割マスクにおけるボクセルの再配置学習
- Authors: Jianning Li, Antonio Pepe, Christina Gsaxner, Yuan Jin, Jan Egger
- Abstract要約: 本稿では,画像の粗い表現生成にのみ深層学習アルゴリズムが責任を負うような,粗大な方法で高解像度画像を再構成できることを提案する。
高分解能な結果を生成するために,粗大出力のボクセル再構成と階層画像合成という2つの新しい手法を提案する。
粗い出力と比較すると、高解像度のものは滑らかな表面三角測量を可能にし、最高品質で3Dプリントできる。
- 参考スコア(独自算出の注目度): 0.8968417883198374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical images, especially volumetric images, are of high resolution and
often exceed the capacity of standard desktop GPUs. As a result, most deep
learning-based medical image analysis tasks require the input images to be
downsampled, often substantially, before these can be fed to a neural network.
However, downsampling can lead to a loss of image quality, which is undesirable
especially in reconstruction tasks, where the fine geometric details need to be
preserved. In this paper, we propose that high-resolution images can be
reconstructed in a coarse-to-fine fashion, where a deep learning algorithm is
only responsible for generating a coarse representation of the image, which
consumes moderate GPU memory. For producing the high-resolution outcome, we
propose two novel methods: learned voxel rearrangement of the coarse output and
hierarchical image synthesis. Compared to the coarse output, the
high-resolution counterpart allows for smooth surface triangulation, which can
be 3D-printed in the highest possible quality. Experiments of this paper are
carried out on the dataset of AutoImplant 2021
(https://autoimplant2021.grand-challenge.org/), a MICCAI challenge on cranial
implant design. The dataset contains high-resolution skulls that can be viewed
as 2D manifolds embedded in a 3D space. Codes associated with this study can be
accessed at https://github.com/Jianningli/voxel_rearrangement.
- Abstract(参考訳): 医用画像、特にボリューム画像は高解像度であり、しばしば標準的なデスクトップGPUの容量を超える。
その結果、ほとんどの深層学習に基づく医用画像解析タスクでは、入力画像がニューラルネットワークに供給される前に、実質的にダウンサンプリングされる必要がある。
しかし、ダウンサンプリングは画像の品質を損なう可能性があり、特に微妙な幾何学的詳細を保存する必要がある再構成作業では望ましくない。
本稿では,画像の粗い表現を生成するのは深層学習アルゴリズムのみであり,中程度のgpuメモリを消費する高分解能画像の再構成が可能であることを提案する。
高分解能な結果を得るために,粗大出力のボクセル再構成と階層画像合成という2つの新しい手法を提案する。
粗い出力と比較して、高解像度版は滑らかな表面三角測量が可能で、最高の品質で3dプリントできる。
本稿では,脳インプラント設計におけるMICCAI課題であるAutoImplant 2021(https://autoimplant2021.grand-challenge.org/)のデータセットを用いて実験を行った。
データセットには高解像度の頭蓋骨が含まれており、3次元空間に埋め込まれた2次元多様体と見ることができる。
この研究に関連するコードはhttps://github.com/Jianningli/voxel_rearrangementでアクセスすることができる。
関連論文リスト
- SCube: Instant Large-Scale Scene Reconstruction using VoxSplats [55.383993296042526]
SCubeは画像の粗い集合から大規模3次元シーン(幾何学、外観、意味論)を再構成する新しい手法である。
提案手法は,高解像度のスパース・ボクセル・足場上に支持された3次元ガウスの組である,新しい表現VoxSplatを用いて再構成シーンを符号化する。
論文 参考訳(メタデータ) (2024-10-26T00:52:46Z) - μ-Net: A Deep Learning-Based Architecture for μ-CT Segmentation [2.012378666405002]
X線計算マイクロトモグラフィー(mu-CT)は、医学および生物学的サンプルの内部解剖の高解像度な3D画像を生成する非破壊的手法である。
3D画像から関連情報を抽出するには、興味のある領域のセマンティックセグメンテーションが必要である。
本稿では、畳み込みニューラルネットワーク(CNN)を用いて、Carassius auratusの心臓の完全な形態を自動分割する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T15:29:08Z) - Geometry-Aware Attenuation Learning for Sparse-View CBCT Reconstruction [53.93674177236367]
Cone Beam Computed Tomography (CBCT) は臨床画像撮影において重要な役割を担っている。
従来の方法では、高品質な3D CBCT画像の再構成には数百の2次元X線投影が必要である。
これにより、放射線線量を減らすため、スパースビューCBCT再構成への関心が高まっている。
本稿では,この問題を解決するために,新しい幾何対応エンコーダデコーダフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-26T14:38:42Z) - Oral-3Dv2: 3D Oral Reconstruction from Panoramic X-Ray Imaging with
Implicit Neural Representation [3.8215162658168524]
Oral-3Dv2は、単一のパノラマX線画像から3Dラジオロジーを再構成する非逆学習モデルである。
本モデルは,2次元座標を3次元空間内のボクセルの密度値にマッピングすることにより,暗黙的に3次元口腔構造を表現することを学習する。
我々の知る限りでは、これは1枚のパノラマX線画像から3Dラジオグラフィ再構成における非逆学習モデルの最初の作品である。
論文 参考訳(メタデータ) (2023-03-21T18:17:27Z) - Decoding natural image stimuli from fMRI data with a surface-based
convolutional network [1.8352113484137629]
本研究では,視覚刺激の復号化のための新しい手法を提案する。
提案手法は, 基礎トラス刺激と良好な微細な類似性を保ちながら, 最先端のセマンティック忠実度を実現する。
論文 参考訳(メタデータ) (2022-12-05T16:47:19Z) - A Self-Supervised Approach to Reconstruction in Sparse X-Ray Computed
Tomography [1.0806206850043696]
この研究は、物理インフォームド変分オートエンコーダである自己教師付き確率的ディープラーニング技術を開発し、検証する。
ディープニューラルネットワークは、スパース2次元の投影測定を、既知の類似したオブジェクトのデータセットをトレーニングすることで3次元の再構成に変換するために使用されている。
高品質な再構成はディープラーニングなしでは生成できず、深層ニューラルネットワークは再構築なしでは学習できない。
論文 参考訳(メタデータ) (2022-10-30T02:33:45Z) - OSTeC: One-Shot Texture Completion [86.23018402732748]
ワンショット3D顔テクスチャ補完のための教師なしアプローチを提案する。
提案手法では,2次元フェースジェネレータで回転画像を再構成することにより,入力画像を3次元で回転させ,見えない領域を埋め込む。
完成したテクスチャーをジェネレーターに投影することで、ターゲットイメージを先取りします。
論文 参考訳(メタデータ) (2020-12-30T23:53:26Z) - Learning Deformable Tetrahedral Meshes for 3D Reconstruction [78.0514377738632]
学習に基づく3次元再構成に対応する3次元形状表現は、機械学習とコンピュータグラフィックスにおいてオープンな問題である。
ニューラル3D再構成に関するこれまでの研究は、利点だけでなく、ポイントクラウド、ボクセル、サーフェスメッシュ、暗黙の関数表現といった制限も示していた。
Deformable Tetrahedral Meshes (DefTet) を, ボリューム四面体メッシュを再構成問題に用いるパラメータ化として導入する。
論文 参考訳(メタデータ) (2020-11-03T02:57:01Z) - Memory-efficient GAN-based Domain Translation of High Resolution 3D
Medical Images [0.15092198588928965]
GAN(Generative Adversarial Network)は大規模な3次元医療画像にはほとんど適用されない。
本研究は、未ペアドメイン翻訳を確立するためのマルチスケールパッチベースのGANアプローチを提案する。
ドメイン翻訳シナリオの評価は155x240x240の脳MRIと最大512x512x512の胸部CTで行う。
論文 参考訳(メタデータ) (2020-10-06T08:43:27Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z) - Pix2Vox++: Multi-scale Context-aware 3D Object Reconstruction from
Single and Multiple Images [56.652027072552606]
Pix2Vox++という,単一ビューと複数ビューの3Dオブジェクト再構成のための新しいフレームワークを提案する。
良く設計されたエンコーダデコーダを用いて、各入力画像から粗い3Dボリュームを生成する。
次に、マルチスケールコンテキスト対応融合モジュールを導入し、全ての粗い3Dボリュームから異なる部分の高品質な再構成を適応的に選択し、融合した3Dボリュームを得る。
論文 参考訳(メタデータ) (2020-06-22T13:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。