論文の概要: Human-Guided Shade Artifact Suppression in CBCT-to-MDCT Translation via Schrödinger Bridge with Conditional Diffusion
- arxiv url: http://arxiv.org/abs/2507.11025v1
- Date: Tue, 15 Jul 2025 06:44:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.00536
- Title: Human-Guided Shade Artifact Suppression in CBCT-to-MDCT Translation via Schrödinger Bridge with Conditional Diffusion
- Title(参考訳): 条件拡散を伴うシュレーディンガー橋によるCBCT-to-MDCT翻訳におけるヒトガイドシェードアーチファクト抑制
- Authors: Sung Ho Kang, Hyun-Cheol Park,
- Abstract要約: 我々はSchrodinger Bridge (SB) の定式化を基礎としたCBCT-to-MDCT翻訳のための新しいフレームワークを提案する。
提案手法はCBCT入力と疑似ターゲットの境界の整合性を明示し,解剖学的忠実度と知覚的制御性の両方を保証する。
- 参考スコア(独自算出の注目度): 1.5869861104370917
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel framework for CBCT-to-MDCT translation, grounded in the Schrodinger Bridge (SB) formulation, which integrates GAN-derived priors with human-guided conditional diffusion. Unlike conventional GANs or diffusion models, our approach explicitly enforces boundary consistency between CBCT inputs and pseudo targets, ensuring both anatomical fidelity and perceptual controllability. Binary human feedback is incorporated via classifier-free guidance (CFG), effectively steering the generative process toward clinically preferred outcomes. Through iterative refinement and tournament-based preference selection, the model internalizes human preferences without relying on a reward model. Subtraction image visualizations reveal that the proposed method selectively attenuates shade artifacts in key anatomical regions while preserving fine structural detail. Quantitative evaluations further demonstrate superior performance across RMSE, SSIM, LPIPS, and Dice metrics on clinical datasets -- outperforming prior GAN- and fine-tuning-based feedback methods -- while requiring only 10 sampling steps. These findings underscore the effectiveness and efficiency of our framework for real-time, preference-aligned medical image translation.
- Abstract(参考訳): 本稿では, CBCT-to-MDCT翻訳のための新しいフレームワークについて述べる。
従来のGANや拡散モデルとは異なり,本手法はCBCT入力と疑似目標の境界整合性を明示し,解剖学的忠実度と知覚的制御性の両方を保証する。
バイナリ・ヒューマン・フィードバックは、分類器フリー・ガイダンス(CFG)を介して組み込まれ、臨床上好まれる結果に向けて、生成過程を効果的に操る。
反復的な洗練とトーナメントベースの選好選択により、モデルは報酬モデルに頼ることなく人間の選好を内部化する。
サブトラクション画像の可視化により,提案手法は重要な解剖学的領域におけるシェードアーティファクトを選択的に減衰させ,微細な構造的詳細を保存できることが明らかになった。
さらに定量的評価は、RMSE、SSIM、LPIPS、Diceのメトリクスで優れたパフォーマンスを示している。
これらの知見は, リアルタイムの医用画像翻訳におけるフレームワークの有効性と効率性を裏付けるものである。
関連論文リスト
- Modality Translation and Registration of MR and Ultrasound Images Using Diffusion Models [7.512221808783586]
前立腺癌の診断にはMR-US多剤の登録が重要である。
既存のメソッドは、無関係な詳細に過度に敏感でありながら、重要な境界を整列することができない。
階層的特徴分散設計に基づく解剖学的に整合したモダリティ変換ネットワークを提案する。
論文 参考訳(メタデータ) (2025-06-01T14:10:06Z) - PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - CriDiff: Criss-cross Injection Diffusion Framework via Generative Pre-train for Prostate Segmentation [60.61972883059688]
CridiffはCrisscross Injection Strategy(CIS)とGenerative Pre-train(GP)アプローチによる2段階の機能注入フレームワークである。
CISでは,複数レベルのエッジ特徴と非エッジ特徴を効果的に学習するために,並列コンディショナーを2つ提案した。
GPアプローチは、追加パラメータを追加することなく、画像特徴と拡散モデルとの矛盾を緩和する。
論文 参考訳(メタデータ) (2024-06-20T10:46:50Z) - CT-based brain ventricle segmentation via diffusion Schrödinger Bridge without target domain ground truths [0.9720086191214947]
クリニカルCTスキャンによる高効率かつ正確な脳室分画は、腹腔鏡下手術のような緊急手術には不可欠である。
我々は,CTセグメント化の真偽を必要とせず,新しい不確実性に留意した心室分画法を導入する。
提案手法では拡散型Schr"odinger Bridgeと残像U-Netを併用し,画像診断とMRI検査を併用した。
論文 参考訳(メタデータ) (2024-05-28T15:17:58Z) - Towards Clinician-Preferred Segmentation: Leveraging Human-in-the-Loop for Test Time Adaptation in Medical Image Segmentation [10.65123164779962]
深層学習に基づく医療画像セグメンテーションモデルは、様々な医療センターに展開すると、しばしば性能劣化に直面します。
本稿では,クリニカル修正予測のほとんど見落とされがちな可能性を生かした,新規なHuman-in-the-loop TTAフレームワークを提案する。
我々のフレームワークは、ドメインの格差によって生じる予測のばらつきを減らし、分散損失を想定する。
論文 参考訳(メタデータ) (2024-05-14T02:02:15Z) - AC-Norm: Effective Tuning for Medical Image Analysis via Affine
Collaborative Normalization [11.224435413938375]
Affine Collaborative Normalization (AC-Norm) が提案されている。
AC-Normは、クロスドメインチャネルワイズ相関に基づいてターゲットモデルのチャネルを動的に再分類する。
我々は,AC-Normがバニラファインタニングを最大4%改善したことを実証した。
論文 参考訳(メタデータ) (2023-07-28T03:27:25Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Ensembling Handcrafted Features with Deep Features: An Analytical Study
for Classification of Routine Colon Cancer Histopathological Nuclei Images [13.858624044986815]
我々は,F1-measure,Precision,Recall,AUC,Cross-Entropy Lossを用いて,提案手法の性能解析を行った。
以上の結果から,DL特徴のアンサンブルがモデル全体の性能を著しく向上させることが明らかとなった。
論文 参考訳(メタデータ) (2022-02-22T06:48:50Z) - COVI-AgentSim: an Agent-based Model for Evaluating Methods of Digital
Contact Tracing [68.68882022019272]
COVI-AgentSimは、ウイルス学、病気の進行、社会的接触ネットワーク、移動パターンに基づくエージェントベースのコンパートメンタルシミュレータである。
1)バイナリテスト結果に基づいてバイナリレコメンデーションを割り当てる標準バイナリコンタクトトレース (BCT) と,2) 多様な特徴に基づいてグレードレベルのレコメンデーションを割り当てる特徴ベースコンタクトトレース (FCT) のルールベースの手法である。
論文 参考訳(メタデータ) (2020-10-30T00:47:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。