論文の概要: Segmentation-Guided Knee Radiograph Generation using Conditional Diffusion Models
- arxiv url: http://arxiv.org/abs/2404.03541v1
- Date: Thu, 4 Apr 2024 15:49:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-05 14:22:11.745538
- Title: Segmentation-Guided Knee Radiograph Generation using Conditional Diffusion Models
- Title(参考訳): 条件拡散モデルを用いたセグメンテーション誘導膝X線生成
- Authors: Siyuan Mei, Fuxin Fan, Fabian Wagner, Mareike Thies, Mingxuan Gu, Yipeng Sun, Andreas Maier,
- Abstract要約: 条件付き拡散モデルを用いて、輪郭と骨のセグメンテーションから膝のX線写真を生成する。
サンプリングおよびトレーニングプロセスにセグメンテーションを条件として組み込むことで、2つの異なる戦略が提示される。
その結果,両手法は条件付きセグメンテーションに固執しながらリアルな画像を生成することができることがわかった。
- 参考スコア(独自算出の注目度): 3.951261552751241
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based medical image processing algorithms require representative data during development. In particular, surgical data might be difficult to obtain, and high-quality public datasets are limited. To overcome this limitation and augment datasets, a widely adopted solution is the generation of synthetic images. In this work, we employ conditional diffusion models to generate knee radiographs from contour and bone segmentations. Remarkably, two distinct strategies are presented by incorporating the segmentation as a condition into the sampling and training process, namely, conditional sampling and conditional training. The results demonstrate that both methods can generate realistic images while adhering to the conditioning segmentation. The conditional training method outperforms the conditional sampling method and the conventional U-Net.
- Abstract(参考訳): 深層学習に基づく医療画像処理アルゴリズムは、開発中に代表データを必要とする。
特に、外科的データは入手が困難であり、高品質な公開データセットは限られている。
この制限と拡張データセットを克服するために、広く採用されている解決策は合成画像の生成である。
本研究では条件拡散モデルを用いて輪郭線と骨のセグメンテーションから膝のX線画像を生成する。
注目すべきは、セグメンテーションを条件としてサンプリングおよびトレーニングプロセス、すなわち条件付きサンプリングと条件付きトレーニングに組み込むことによって、2つの異なる戦略が提示されることである。
その結果,両手法は条件付きセグメンテーションに固執しながらリアルな画像を生成することができることがわかった。
条件付き学習法は、条件付きサンプリング法と従来のU-Netより優れる。
関連論文リスト
- Local Lesion Generation is Effective for Capsule Endoscopy Image Data Augmentation in a Limited Data Setting [0.0]
そこで我々は, 局所病変生成手法を2つ提案し, 小型医用画像データセットの増大に対処する。
最初のアプローチでは、古典的な画像処理技術であるPoisson Image Editingアルゴリズムを使用して、リアルな画像合成を生成する。
第2のアプローチでは、微調整されたイメージインペインティングGANを利用して、現実的な病変を合成する新しい生成手法を導入している。
論文 参考訳(メタデータ) (2024-11-05T13:44:25Z) - Fast constrained sampling in pre-trained diffusion models [77.21486516041391]
拡散モデルは、大規模な生成画像モデルの分野を支配してきた。
本研究では,大規模な事前学習拡散モデルにおける高速拘束サンプリングのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-24T14:52:38Z) - Evaluating Utility of Memory Efficient Medical Image Generation: A Study on Lung Nodule Segmentation [0.0]
本研究は,合成医用画像を生成するためのメモリ効率のパッチワイド拡散確率モデル(DDPM)を提案する。
本手法は, メモリ制約を効率的に管理しながら, 結節分割による高能率合成画像を生成する。
本手法は,合成データのみに基づくセグメンテーションモデルのトレーニングと,合成画像を用いた実世界のトレーニングデータの拡張の2つのシナリオで評価する。
論文 参考訳(メタデータ) (2024-10-16T13:20:57Z) - A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Generative AI Enables Medical Image Segmentation in Ultra Low-Data Regimes [35.151834585823224]
本稿では,高品質なセグメンテーションマスクと医用画像を一意に生成する生成的深層学習フレームワークを提案する。
データ生成とセグメンテーションモデルを個別のプロセスとして扱う従来の生成モデルとは異なり、本手法ではエンドツーエンドのデータ生成にマルチレベル最適化を用いる。
提案手法は,9種類の医用画像分割タスクと16のデータセットに対して,超低速データレギュレーションにおいて高い一般化性能を示した。
論文 参考訳(メタデータ) (2024-08-30T17:11:36Z) - CoDi: Conditional Diffusion Distillation for Higher-Fidelity and Faster
Image Generation [49.3016007471979]
大規模な生成拡散モデルは、テキスト・ツー・イメージ生成に革命をもたらし、条件付き生成タスクに大きな可能性を秘めている。
しかし、彼らの普及は高い計算コストによって妨げられ、リアルタイムの応用が制限される。
本稿では,事前学習した潜伏拡散モデルに付加的な画像条件入力を適応させるCoDiという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-10-02T17:59:18Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - DuDGAN: Improving Class-Conditional GANs via Dual-Diffusion [2.458437232470188]
GAN(Generative Adversarial Network)を用いたクラス条件画像生成について,様々な手法を用いて検討した。
本稿では,DuDGANと呼ばれる2次元拡散型ノイズ注入法を取り入れたGANを用いたクラス条件画像生成手法を提案する。
提案手法は,画像生成のための現状条件付きGANモデルよりも性能的に優れている。
論文 参考訳(メタデータ) (2023-05-24T07:59:44Z) - Unsupervised Domain Transfer with Conditional Invertible Neural Networks [83.90291882730925]
条件付き可逆ニューラルネットワーク(cINN)に基づくドメイン転送手法を提案する。
提案手法は本質的に,その可逆的アーキテクチャによるサイクル一貫性を保証し,ネットワークトレーニングを最大限効率的に行うことができる。
提案手法は,2つの下流分類タスクにおいて,現実的なスペクトルデータの生成を可能にし,その性能を向上する。
論文 参考訳(メタデータ) (2023-03-17T18:00:27Z) - Guiding GANs: How to control non-conditional pre-trained GANs for
conditional image generation [69.10717733870575]
本稿では,汎用非条件GANを条件GANとして振る舞うための新しい方法を提案する。
提案手法は,非条件GANのジェネレータネットワークに供給される高次元ランダム入力を生成するために,エンコーダネットワークを混合するものである。
論文 参考訳(メタデータ) (2021-01-04T14:03:32Z) - Unlabeled Data Guided Semi-supervised Histopathology Image Segmentation [34.45302976822067]
生成法に基づく半教師付き学習(SSL)は,多様な画像特性の活用に有効であることが証明されている。
非ラベルデータ分布を利用した病理組織像分割のための新しいデータガイド生成法を提案する。
本手法は腺および核データセット上で評価される。
論文 参考訳(メタデータ) (2020-12-17T02:54:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。