論文の概要: Improved $\alpha$-GAN architecture for generating 3D connected volumes
with an application to radiosurgery treatment planning
- arxiv url: http://arxiv.org/abs/2207.11223v1
- Date: Wed, 13 Jul 2022 16:39:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:27:21.269007
- Title: Improved $\alpha$-GAN architecture for generating 3D connected volumes
with an application to radiosurgery treatment planning
- Title(参考訳): 3dコネクテッドボリューム生成のための$\alpha$-ganアーキテクチャの改良と放射線外科治療計画への応用
- Authors: Sanaz Mohammadjafari, Mucahit Cevik, Ayse Basar
- Abstract要約: 接続された3Dボリュームを生成するための3D$alpha$-GANの改良版を提案する。
我々のモデルは高品質な3D腫瘍ボリュームとそれに伴う治療仕様をうまく生成できる。
改良された3D$alpha$-GANは、合成医用画像データを生成する貴重な情報源となる。
- 参考スコア(独自算出の注目度): 0.5156484100374059
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GANs) have gained significant attention in
several computer vision tasks for generating high-quality synthetic data.
Various medical applications including diagnostic imaging and radiation therapy
can benefit greatly from synthetic data generation due to data scarcity in the
domain. However, medical image data is typically kept in 3D space, and
generative models suffer from the curse of dimensionality issues in generating
such synthetic data. In this paper, we investigate the potential of GANs for
generating connected 3D volumes. We propose an improved version of 3D
$\alpha$-GAN by incorporating various architectural enhancements. On a
synthetic dataset of connected 3D spheres and ellipsoids, our model can
generate fully connected 3D shapes with similar geometrical characteristics to
that of training data. We also show that our 3D GAN model can successfully
generate high-quality 3D tumor volumes and associated treatment specifications
(e.g., isocenter locations). Similar moment invariants to the training data as
well as fully connected 3D shapes confirm that improved 3D $\alpha$-GAN
implicitly learns the training data distribution, and generates
realistic-looking samples. The capability of improved 3D $\alpha$-GAN makes it
a valuable source for generating synthetic medical image data that can help
future research in this domain.
- Abstract(参考訳): GAN(Generative Adversarial Networks)は、高品質な合成データを生成するコンピュータビジョンタスクにおいて大きな注目を集めている。
診断イメージングや放射線治療を含む様々な医療応用は、ドメイン内のデータ不足による合成データ生成から大きな利益を得られる。
しかし、医用画像データは一般的に3d空間に保持され、生成モデルはそのような合成データを生成する際に次元の問題の呪いに苦しむ。
本稿では,接続された3次元ボリュームを生成するためのGANの可能性を検討する。
様々なアーキテクチャ拡張を組み込んだ3d $\alpha$-ganの改良版を提案する。
連結3次元球面と楕円体からなる合成データセット上では,トレーニングデータと同様の幾何学的特徴を持つ完全連結3次元形状を生成できる。
また,我々の3D GANモデルでは,高品質な3D腫瘍容積とそれに伴う治療仕様(例えば,アイソセンタ位置)を生成可能であることを示す。
トレーニングデータに類似したモーメント不変量と完全接続された3d形状は、改良された3d $\alpha$-ganが暗黙的にトレーニングデータ分布を学習し、現実的なサンプルを生成する。
3D$\alpha$-GANの改良により、この領域における将来の研究に役立つ合成医療画像データを生成する貴重な情報源となる。
関連論文リスト
- E3D-GPT: Enhanced 3D Visual Foundation for Medical Vision-Language Model [23.56751925900571]
3次元医用視覚言語モデルの開発は、疾患の診断と患者の治療に有意な可能性を秘めている。
自己教師付き学習を用いて3次元視覚特徴抽出のための3次元視覚基盤モデルを構築した。
本研究では,3次元空間畳み込みを高精細画像の特徴の集約・投影に応用し,計算複雑性を低減した。
本モデルは,既存の報告生成法,視覚的質問応答法,疾患診断法と比較して,優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-18T06:31:40Z) - DIRECT-3D: Learning Direct Text-to-3D Generation on Massive Noisy 3D Data [50.164670363633704]
テキストプロンプトから高品質な3Dアセットを作成するための拡散型3D生成モデルであるDIRECT-3Dを提案する。
我々のモデルは、広範に騒々しく不整合な3D資産で直接訓練されている。
単一クラス生成とテキスト・ツー・3D生成の両方で最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-06-06T17:58:15Z) - Generative Enhancement for 3D Medical Images [74.17066529847546]
本稿では,3次元医用画像合成の新しい生成手法であるGEM-3Dを提案する。
本手法は2次元スライスから始まり,3次元スライスマスクを用いて患者に提供するための情報スライスとして機能し,生成過程を伝搬する。
3D医療画像をマスクと患者の事前情報に分解することで、GEM-3Dは多目的な3D画像を生成する柔軟な、かつ効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2024-03-19T15:57:04Z) - Pushing Auto-regressive Models for 3D Shape Generation at Capacity and Scalability [118.26563926533517]
自己回帰モデルでは,格子空間における関節分布をモデル化することにより,2次元画像生成において顕著な結果が得られた。
自動回帰モデルを3次元領域に拡張し,キャパシティとスケーラビリティを同時に向上することにより,3次元形状生成の強力な能力を求める。
論文 参考訳(メタデータ) (2024-02-19T15:33:09Z) - 3D GANs and Latent Space: A comprehensive survey [0.0]
3D GANは、3D再構成、ポイントクラウド再構成、および3Dセマンティックシーン補完に使用される新しいタイプの生成モデルである。
雑音の分布の選択は、遅延空間を表すため重要である。
本研究は,潜伏空間と3D GANを探索し,複数のGAN変種と訓練方法を調べ,3D GAN訓練の改善に関する洞察を得るとともに,今後の研究の方向性を示唆するものである。
論文 参考訳(メタデータ) (2023-04-08T06:36:07Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Get3DHuman: Lifting StyleGAN-Human into a 3D Generative Model using
Pixel-aligned Reconstruction Priors [56.192682114114724]
Get3DHumanは、生成された結果のリアリズムと多様性を大幅に向上させる、新しい3Dヒューマンフレームワークである。
我々のキーとなる観察は、この3Dジェネレータは、人間の2Dジェネレータと3Dコンストラクタを通して学んだ、人間関係の先行技術から利益を得ることができるということだ。
論文 参考訳(メタデータ) (2023-02-02T15:37:46Z) - Deep Generative Models on 3D Representations: A Survey [81.73385191402419]
生成モデルは、新しいインスタンスを生成することによって観測データの分布を学習することを目的としている。
最近、研究者は焦点を2Dから3Dにシフトし始めた。
3Dデータの表現は、非常に大きな課題をもたらします。
論文 参考訳(メタデータ) (2022-10-27T17:59:50Z) - Generating 3D structures from a 2D slice with GAN-based dimensionality
expansion [0.0]
GAN(Generative adversarial Network)は、3D画像データを生成するためのトレーニングが可能で、設計の最適化に役立ちます。
本稿では,1つの代表2次元画像を用いて高忠実度3次元データセットを合成できる生成逆ネットワークアーキテクチャであるSliceGANを紹介する。
論文 参考訳(メタデータ) (2021-02-10T18:46:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。