論文の概要: Three-Dimensional Anatomical Data Generation Based on Artificial Neural Networks
- arxiv url: http://arxiv.org/abs/2511.19198v1
- Date: Mon, 24 Nov 2025 15:07:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.268879
- Title: Three-Dimensional Anatomical Data Generation Based on Artificial Neural Networks
- Title(参考訳): ニューラルネットワークを用いた三次元解剖データ生成
- Authors: Ann-Sophia Müller, Moonkwang Jeong, Meng Zhang, Jiyuan Tian, Arkadiusz Miernik, Stefanie Speidel, Tian Qiu,
- Abstract要約: 機械学習に基づく外科的計画と訓練は、医療画像から再構築された大量の3次元解剖モデルを必要とする。
本稿では,身体臓器モデルから得られたデータを用いた3次元解剖学的自動生成のための新しいワークフローを提案する。
また、他の下流機械学習タスクに有用な3Dモデルの多様体を得るために、GAN(3D Generative Adversarial Network)を利用する。
- 参考スコア(独自算出の注目度): 5.603015573423138
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Surgical planning and training based on machine learning requires a large amount of 3D anatomical models reconstructed from medical imaging, which is currently one of the major bottlenecks. Obtaining these data from real patients and during surgery is very demanding, if even possible, due to legal, ethical, and technical challenges. It is especially difficult for soft tissue organs with poor imaging contrast, such as the prostate. To overcome these challenges, we present a novel workflow for automated 3D anatomical data generation using data obtained from physical organ models. We additionally use a 3D Generative Adversarial Network (GAN) to obtain a manifold of 3D models useful for other downstream machine learning tasks that rely on 3D data. We demonstrate our workflow using an artificial prostate model made of biomimetic hydrogels with imaging contrast in multiple zones. This is used to physically simulate endoscopic surgery. For evaluation and 3D data generation, we place it into a customized ultrasound scanner that records the prostate before and after the procedure. A neural network is trained to segment the recorded ultrasound images, which outperforms conventional, non-learning-based computer vision techniques in terms of intersection over union (IoU). Based on the segmentations, a 3D mesh model is reconstructed, and performance feedback is provided.
- Abstract(参考訳): 機械学習に基づく外科的計画とトレーニングには、医療画像から再構築された大量の3D解剖モデルが必要である。
実際の患者や手術中にこれらのデータを取得することは、法的、倫理的、技術的課題のために可能であれば非常に要求される。
前立腺のような画像のコントラストが低い軟部組織では特に困難である。
これらの課題を克服するために,身体臓器モデルから得られたデータを用いた3次元解剖学的自動生成のための新しいワークフローを提案する。
さらに、GAN(3D Generative Adversarial Network)を用いて、3Dデータに依存する他の下流機械学習タスクに有用な3Dモデルの多様体を得る。
バイオミメティックハイドロゲルを用いた人工前立腺モデルを用いて,複数の領域における画像コントラストを用いたワークフローを実証した。
これは内視鏡手術を物理的にシミュレートするために用いられる。
評価と3Dデータ生成のために,プロシージャ前後に前立腺を記録するカスタマイズされた超音波スキャナに配置する。
ニューラルネットワークは、記録された超音波画像のセグメンテーションを訓練し、これは従来の非学習ベースのコンピュータビジョン技術よりも、結合(IoU)よりも優れている。
セグメンテーションに基づいて、3Dメッシュモデルを再構成し、パフォーマンスフィードバックを提供する。
関連論文リスト
- Realistic Surgical Image Dataset Generation Based On 3D Gaussian Splatting [3.5351922399745166]
本研究は, 合成外科用データセットを生成するために3次元ガウススプラッティングを用いた新しい手法を提案する。
手術現場でツールやカメラのポーズとともに画像を取得することのできるデータ記録システムを開発した。
このポーズデータを用いて、シーンを合成的に再現し、合成画像の品質を直接比較できるようにする。
論文 参考訳(メタデータ) (2024-07-20T11:20:07Z) - Creating a Digital Twin of Spinal Surgery: A Proof of Concept [68.37190859183663]
手術デジタル化は、現実世界の手術の仮想レプリカを作成するプロセスである。
脊椎外科手術に応用した手術デジタル化のための概念実証(PoC)を提案する。
5台のRGB-Dカメラを外科医の動的3D再構成に、ハイエンドカメラを解剖学の3D再構成に、赤外線ステレオカメラを手術器具追跡に、レーザースキャナーを手術室の3D再構成とデータ融合に使用した。
論文 参考訳(メタデータ) (2024-03-25T13:09:40Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Generating 3D Bio-Printable Patches Using Wound Segmentation and
Reconstruction to Treat Diabetic Foot Ulcers [3.9601033501810576]
AiD Regenは、2Dセマンティックセグメンテーションと3D再構成を組み合わせた3D創傷モデルを生成するシステムである。
AiD Regenは、RGB-D画像キャプチャ、セマンティックセグメンテーション、境界誘導ポイントクラウド処理、3Dモデル再構成、3Dプリント可能なGコード生成を含む、完全なパイプラインをシームレスに結合する。
論文 参考訳(メタデータ) (2022-03-08T02:29:32Z) - A Point Cloud Generative Model via Tree-Structured Graph Convolutions
for 3D Brain Shape Reconstruction [31.436531681473753]
センサスキャンなどの物理的手法を用いて,術中3次元形状情報を得ることはほとんど不可能である。
本稿では,1つの2次元画像を用いて脳の3次元点雲(PC)を再構成するGANアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-07-21T07:57:37Z) - Medical Transformer: Universal Brain Encoder for 3D MRI Analysis [1.6287500717172143]
既存の3Dベースの手法は、トレーニング済みのモデルを下流のタスクに転送している。
彼らは3D医療イメージングのためのモデルを訓練するために大量のパラメータを要求します。
本稿では,2次元画像スライス形式で3次元容積画像を効果的にモデル化する,メディカルトランスフォーマーと呼ばれる新しい伝達学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-28T08:34:21Z) - Planar 3D Transfer Learning for End to End Unimodal MRI Unbalanced Data
Segmentation [0.0]
本稿では,事前学習した2次元畳み込みニューラルネットワーク重みを平面3次元カーネルにマッピングする手法を提案する。
提案手法は2次元VGG-16から転送されるエンコーダを備えた平面3Dres-u-netネットワークにより検証される。
論文 参考訳(メタデータ) (2020-11-23T17:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。