論文の概要: BronchoGAN: Anatomically consistent and domain-agnostic image-to-image translation for video bronchoscopy
- arxiv url: http://arxiv.org/abs/2507.01387v1
- Date: Wed, 02 Jul 2025 06:04:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.067749
- Title: BronchoGAN: Anatomically consistent and domain-agnostic image-to-image translation for video bronchoscopy
- Title(参考訳): BronchoGAN : ビデオ気管支内視鏡における解剖学的に整合性があり, 領域に依存しない画像-画像-画像変換
- Authors: Ahmad Soliman, Ron Keuth, Marian Himstedt,
- Abstract要約: 本稿では,画像から画像への変換が条件付きGANに統合される際の解剖学的制約について紹介する。
特に,気管支オリフィスを入力画像と出力画像に合わせるように強制する。
実験の結果,異なる領域からの入力画像は,現実的な人間の気道外観を模倣した画像に変換可能であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The limited availability of bronchoscopy images makes image synthesis particularly interesting for training deep learning models. Robust image translation across different domains -- virtual bronchoscopy, phantom as well as in-vivo and ex-vivo image data -- is pivotal for clinical applications. This paper proposes BronchoGAN introducing anatomical constraints for image-to-image translation being integrated into a conditional GAN. In particular, we force bronchial orifices to match across input and output images. We further propose to use foundation model-generated depth images as intermediate representation ensuring robustness across a variety of input domains establishing models with substantially less reliance on individual training datasets. Moreover our intermediate depth image representation allows to easily construct paired image data for training. Our experiments showed that input images from different domains (e.g. virtual bronchoscopy, phantoms) can be successfully translated to images mimicking realistic human airway appearance. We demonstrated that anatomical settings (i.e. bronchial orifices) can be robustly preserved with our approach which is shown qualitatively and quantitatively by means of improved FID, SSIM and dice coefficients scores. Our anatomical constraints enabled an improvement in the Dice coefficient of up to 0.43 for synthetic images. Through foundation models for intermediate depth representations, bronchial orifice segmentation integrated as anatomical constraints into conditional GANs we are able to robustly translate images from different bronchoscopy input domains. BronchoGAN allows to incorporate public CT scan data (virtual bronchoscopy) in order to generate large-scale bronchoscopy image datasets with realistic appearance. BronchoGAN enables to bridge the gap of missing public bronchoscopy images.
- Abstract(参考訳): 気管支鏡画像が限られたため、深層学習モデルの訓練には画像合成が特に興味深い。
さまざまな領域にわたるロバストな画像翻訳 -- 仮想気管支鏡、幻視、およびin-vivoおよびex-vivo画像データ -- は、臨床応用に欠かせない。
本稿では,画像間翻訳における解剖学的制約を条件付きGANに統合するBronchoGANを提案する。
特に,気管支オリフィスを入力画像と出力画像に合わせるように強制する。
さらに, 基礎モデル生成深度画像は, 個々のトレーニングデータセットに依存しないモデルを確立する様々な入力領域において, 堅牢性を保証する中間表現として用いることを提案する。
さらに、中間深度画像表現は、訓練用のペア画像データを簡単に構築することができる。
実験の結果,異なる領域からの入力画像(例えば,仮想気管支鏡,ファントム)は,現実的な人間の気道外観を模倣した画像に変換可能であることがわかった。
FID, SSIM, ダイス係数を改良し, 質的, 定量的に示すアプローチにより, 解剖学的設定(気管支オリフィス)を頑健に維持できることを実証した。
解剖学的制約により合成画像のDice係数は最大0.43向上した。
中間深度表現の基礎モデルにより, 気管支鏡入力領域からの画像の堅牢な翻訳が可能となった。
BronchoGANは、公共のCTスキャンデータ(仮想気管支鏡)を組み込むことで、現実的な外観を持つ大規模な気管支鏡画像データセットを生成する。
BronchoGANは、失明した気管支鏡像のギャップを埋めることを可能にする。
関連論文リスト
- DiffDoctor: Diagnosing Image Diffusion Models Before Treating [57.82359018425674]
DiffDoctorは2段階のパイプラインで、画像拡散モデルがより少ないアーティファクトを生成するのを支援する。
我々は100万以上の欠陥のある合成画像のデータセットを収集し、効率的なHuman-in-the-loopアノテーションプロセスを構築した。
次に、学習したアーティファクト検出器が第2段階に関与し、ピクセルレベルのフィードバックを提供することで拡散モデルを最適化する。
論文 参考訳(メタデータ) (2025-01-21T18:56:41Z) - Latent Drifting in Diffusion Models for Counterfactual Medical Image Synthesis [55.959002385347645]
遅延ドリフトにより、医療画像に対して拡散モデルを条件付けし、反ファクト画像生成の複雑なタスクに適合させることができる。
我々は,脳MRIと胸部X線による3つの時系列的ベンチマークデータセットを用いて,対物画像生成法について検討した。
論文 参考訳(メタデータ) (2024-12-30T01:59:34Z) - Multi-Conditioned Denoising Diffusion Probabilistic Model (mDDPM) for Medical Image Synthesis [22.0080610434872]
アノテーションを用いた合成画像の制御生成フレームワークを提案する。
本手法は, 解剖学的に忠実に表現できる, 注記式肺CT画像を作成することができることを示す。
本実験は, この自然の制御された生成フレームワークが, ほぼすべての最先端画像生成モデルを超えることを実証した。
論文 参考訳(メタデータ) (2024-09-07T01:19:02Z) - Anatomically-Controllable Medical Image Generation with Segmentation-Guided Diffusion Models [11.835841459200632]
解剖学的に制御可能な医用画像生成を支援する拡散モデルに基づく手法を提案する。
また, ランダムマスクアブレーショントレーニングアルゴリズムを導入し, 解剖学的制約の組合せの条件付けを可能にする。
SegGuidedDiffは、生成した画像の忠実さを新たな最先端に到達して、解剖学的マスクを入力します。
論文 参考訳(メタデータ) (2024-02-07T19:35:09Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - RoentGen: Vision-Language Foundation Model for Chest X-ray Generation [7.618389245539657]
我々は,胸部X線のコーパスに事前学習した潜伏拡散モデルを適用することで,大きな自然医学的分布変化を克服する戦略を開発する。
テキストプロンプトに条件付された高忠実で多様な合成CXRを生成するモデルの能力について検討する。
得られたモデル(RoentGen)が視覚的に説得力があり多様な合成CXR画像を生成することができることを示す。
論文 参考訳(メタデータ) (2022-11-23T06:58:09Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。