論文の概要: A Point Cloud Generative Model via Tree-Structured Graph Convolutions
for 3D Brain Shape Reconstruction
- arxiv url: http://arxiv.org/abs/2107.09923v1
- Date: Wed, 21 Jul 2021 07:57:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:08:52.773118
- Title: A Point Cloud Generative Model via Tree-Structured Graph Convolutions
for 3D Brain Shape Reconstruction
- Title(参考訳): 3次元脳形状再構成のための木構造グラフ畳み込みによる点雲生成モデル
- Authors: Bowen Hu, Baiying Lei, Yanyan Shen, Yong Liu, Shuqiang Wang
- Abstract要約: センサスキャンなどの物理的手法を用いて,術中3次元形状情報を得ることはほとんど不可能である。
本稿では,1つの2次元画像を用いて脳の3次元点雲(PC)を再構成するGANアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 31.436531681473753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fusing medical images and the corresponding 3D shape representation can
provide complementary information and microstructure details to improve the
operational performance and accuracy in brain surgery. However, compared to the
substantial image data, it is almost impossible to obtain the intraoperative 3D
shape information by using physical methods such as sensor scanning, especially
in minimally invasive surgery and robot-guided surgery. In this paper, a
general generative adversarial network (GAN) architecture based on graph
convolutional networks is proposed to reconstruct the 3D point clouds (PCs) of
brains by using one single 2D image, thus relieving the limitation of acquiring
3D shape data during surgery. Specifically, a tree-structured generative
mechanism is constructed to use the latent vector effectively and transfer
features between hidden layers accurately. With the proposed generative model,
a spontaneous image-to-PC conversion is finished in real-time. Competitive
qualitative and quantitative experimental results have been achieved on our
model. In multiple evaluation methods, the proposed model outperforms another
common point cloud generative model PointOutNet.
- Abstract(参考訳): 医用画像とそれに対応する3次元形状表現は、補完的な情報と微細構造の詳細を提供し、脳外科手術の手術性能と精度を向上させる。
しかし,実際の画像データと比較すると,特に低侵襲手術やロボット誘導手術において,センサスキャンなどの物理的手法を用いて術中3次元形状情報を得ることはほとんど不可能である。
本稿では, グラフ畳み込みネットワークに基づくgan(general generative adversarial network)アーキテクチャを提案し, 1つの2次元画像を用いて脳の3次元点雲(pcs)を再構成し, 手術中の3次元形状データ獲得の限界を緩和する。
具体的には、木構造生成機構を構築し、潜伏ベクトルを効果的に利用し、隠蔽層間の特徴を正確に伝達する。
提案する生成モデルにより,自然画像からpcへの変換がリアルタイムに完了する。
本モデルでは, 比較定性的, 定量的な実験結果を得た。
複数の評価手法において、提案モデルは別の共通点クラウド生成モデルであるPointOutNetより優れている。
関連論文リスト
- DINeuro: Distilling Knowledge from 2D Natural Images via Deformable Tubular Transferring Strategy for 3D Neuron Reconstruction [10.100192103585925]
3D光顕微鏡画像データからニューロンの形態を再構築することは、神経科学者が脳ネットワークや神経解剖学を分析するのを助けるために重要である。
本稿では, 潜伏埋め込み空間における神経構造固有の管状特性に, 事前学習した2次元自然知識を適応させる変形可能な管状伝達戦略を提案する。
論文 参考訳(メタデータ) (2024-10-29T14:36:03Z) - 3D-CT-GPT: Generating 3D Radiology Reports through Integration of Large Vision-Language Models [51.855377054763345]
本稿では,VQAに基づく医用視覚言語モデルである3D-CT-GPTについて紹介する。
パブリックデータセットとプライベートデータセットの両方の実験により、3D-CT-GPTはレポートの正確さと品質という点で既存の手法を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2024-09-28T12:31:07Z) - LAM3D: Large Image-Point-Cloud Alignment Model for 3D Reconstruction from Single Image [64.94932577552458]
大規模再構成モデルは、単一または複数入力画像から自動3Dコンテンツ生成の領域において大きな進歩を遂げている。
彼らの成功にもかかわらず、これらのモデルはしばしば幾何学的不正確な3Dメッシュを生成し、画像データからのみ3D形状を推論する固有の課題から生まれた。
生成した3Dメッシュの忠実度を高めるために3Dポイントクラウドデータを利用する新しいフレームワークであるLarge Image and Point Cloud Alignment Model (LAM3D)を導入する。
論文 参考訳(メタデータ) (2024-05-24T15:09:12Z) - SAM3D: Zero-Shot Semi-Automatic Segmentation in 3D Medical Images with the Segment Anything Model [3.2554912675000818]
SAM3Dは,既存のセグメンテーションモデル上に構築された3次元画像の半自動ゼロショットセグメンテーションのための新しいアプローチである。
ユーザが3Dポリラインでプロンプトし、複数の軸に沿ってボリュームスライスし、事前訓練されたモデルでスライスワイド推論を行い、3Dで再構成と洗練を行う4段階の戦略で、3D画像の高速かつ正確なセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-05-10T19:26:17Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Flow-based GAN for 3D Point Cloud Generation from a Single Image [16.04710129379503]
本稿では,任意の解像度の点群をサンプリングするためのフローベース明示的生成モデルを継承する,ハイブリッドな明示的生成モデルを提案する。
大規模合成データセットShapeNetについて評価し,提案手法の優れた性能を示す実験結果を得た。
論文 参考訳(メタデータ) (2022-10-08T17:58:20Z) - 3D Brain Reconstruction by Hierarchical Shape-Perception Network from a
Single Incomplete Image [20.133967825823312]
特定の脳の3次元点雲(PC)を再構成するために,新しい階層型形状知覚ネットワーク(HSPN)を提案する。
提案したHSPNでは、3次元形状知覚と完成が自然に達成される。
論文 参考訳(メタデータ) (2021-07-23T03:20:42Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Hierarchical Amortized Training for Memory-efficient High Resolution 3D
GAN [52.851990439671475]
本稿では,高解像度な3D画像を生成することができる新しいエンドツーエンドGANアーキテクチャを提案する。
トレーニングと推論の異なる構成を使用することで、この目標を達成する。
3次元胸郭CTと脳MRIの実験により、我々のアプローチは画像生成における最先端技術より優れていることが示された。
論文 参考訳(メタデータ) (2020-08-05T02:33:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。