論文の概要: See More, Change Less: Anatomy-Aware Diffusion for Contrast Enhancement
- arxiv url: http://arxiv.org/abs/2512.07251v1
- Date: Mon, 08 Dec 2025 07:48:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.767736
- Title: See More, Change Less: Anatomy-Aware Diffusion for Contrast Enhancement
- Title(参考訳): より詳しく, 変化の少ない: コントラスト向上のための解剖学的認識拡散
- Authors: Junqi Liu, Zejun Wu, Pedro R. A. S. Bassi, Xinze Zhou, Wenxuan Li, Ibrahim E. Hamamci, Sezgin Er, Tianyu Lin, Yi Luo, Szymon Płotka, Bjoern Menze, Daguang Xu, Kai Ding, Kang Wang, Yang Yang, Yucheng Tang, Alan L. Yuille, Zongwei Zhou,
- Abstract要約: SMILEは解剖学的に認識された拡散モデルで、臓器がどのように形成され、どのようにコントラストを取るかを学ぶ。
他のすべての領域を変更せずに、臨床的に関係のある領域のみを増強する。
また、非造影CTによるがん検出も改善され、F1スコアは最大10%上昇する。
- 参考スコア(独自算出の注目度): 54.01053990883076
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image enhancement improves visual quality and helps reveal details that are hard to see in the original image. In medical imaging, it can support clinical decision-making, but current models often over-edit. This can distort organs, create false findings, and miss small tumors because these models do not understand anatomy or contrast dynamics. We propose SMILE, an anatomy-aware diffusion model that learns how organs are shaped and how they take up contrast. It enhances only clinically relevant regions while leaving all other areas unchanged. SMILE introduces three key ideas: (1) structure-aware supervision that follows true organ boundaries and contrast patterns; (2) registration-free learning that works directly with unaligned multi-phase CT scans; (3) unified inference that provides fast and consistent enhancement across all contrast phases. Across six external datasets, SMILE outperforms existing methods in image quality (14.2% higher SSIM, 20.6% higher PSNR, 50% better FID) and in clinical usefulness by producing anatomically accurate and diagnostically meaningful images. SMILE also improves cancer detection from non-contrast CT, raising the F1 score by up to 10 percent.
- Abstract(参考訳): 画像の強調は視覚的品質を改善し、元の画像で見るのが難しい詳細を明らかにするのに役立つ。
医用画像では、臨床的な意思決定をサポートするが、現在のモデルは過度に編集されることが多い。
これらのモデルでは解剖学やコントラストのダイナミクスが理解できないため、臓器を歪ませたり、誤った発見をしたり、小さな腫瘍を見逃したりすることがある。
我々は,臓器の形状とコントラストの取り込みを学習する解剖学的な拡散モデルSMILEを提案する。
他のすべての領域を変更せずに、臨床的に関係のある領域のみを増強する。
SMILEは,(1)真の臓器境界とコントラストパターンに従う構造意識の監視,(2)非整合性多相CTスキャンと直接連携する登録自由学習,(3)コントラストフェーズ間の高速で一貫した拡張を提供する統一推論,の3つの主要な考え方を紹介している。
6つの外部データセット全体で、SMILEは既存の画像品質の手法(SSIMが14.2%、PSNRが20.6%、FIDが50%)と、解剖学的に正確で診断学的に意味のある画像を生成する臨床的有用性で優れている。
SMILEは非造影CTによるがん検出も改善し、F1スコアは最大10%上昇する。
関連論文リスト
- Dual Interaction Network with Cross-Image Attention for Medical Image Segmentation [4.804685266333253]
本稿では,原画像と拡張画像の相互補完情報を利用する対話型融合モジュール(DIFM)を提案する。
DIFMは、異なる画像にまたがる対応する空間情報に同時に対応するために、双方向に双方向にクロスアテンションを利用する。
さらに、勾配抽出に基づく多スケール境界損失を導入し、オブジェクト境界におけるセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2025-09-07T07:25:59Z) - PLUS: Plug-and-Play Enhanced Liver Lesion Diagnosis Model on Non-Contrast CT Scans [21.598723671897766]
PLUSは、任意の3DセグメンテーションモデルのためのNCCT画像のFLL解析を強化するプラグイン・アンド・プレイフレームワークである。
結果:PLUSは病変レベルF1スコアを5.66%,悪性度F1スコアを6.26%,良性度F1スコアを4.03%改善した。
論文 参考訳(メタデータ) (2025-07-05T03:03:13Z) - Optimizing Breast Cancer Detection in Mammograms: A Comprehensive Study of Transfer Learning, Resolution Reduction, and Multi-View Classification [0.0]
X線撮影技術であるマンモグラフィーは、乳がんの早期発見の中心である。
人工知能の最近の進歩は、ますます高度なコンピュータ支援診断方法を可能にしている。
この進歩にもかかわらず、いくつかの重要な疑問は未解決のままである。
論文 参考訳(メタデータ) (2025-03-25T11:51:21Z) - Diffusion Models for Counterfactual Generation and Anomaly Detection in Brain Images [39.94162291765236]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Learning Better Contrastive View from Radiologist's Gaze [45.55702035003462]
診断における放射線技師の視線から学び,医用画像のコントラストビューを生成するための,新たな拡張手法であるFocusContrastを提案する。
具体的には、放射線医の視線の動きを追跡し、X線画像の読影時の視覚的注意をモデル化する。
プラグアンドプレイモジュールとして、FocusContrastは膝X線データセットの分類精度を4.07.0%改善した。
論文 参考訳(メタデータ) (2023-05-15T17:34:49Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Anatomy-Aware Contrastive Representation Learning for Fetal Ultrasound [17.91546880972773]
解剖学的認識型コントラスト学習(AWCL)による医用画像の視覚的表現の改善を提案する。
AWCLは解剖情報を組み込んで、正/負のペアサンプリングを対照的な学習方法で増強する。
大規模な胎児超音波データセットを用いた実験では、3つの臨床的下流課題によく伝達される表現の学習に有効であることが示された。
論文 参考訳(メタデータ) (2022-08-22T22:49:26Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Improving Tuberculosis (TB) Prediction using Synthetically Generated
Computed Tomography (CT) Images [0.17499351967216337]
肺感染症はCT(Computed tomography)スキャンで診断され評価されることが多い。
異なるタイプの撮像方法であるX線は安価で、しばしばベッドサイドで利用でき、より広く利用することができるが、よりシンプルで2次元の画像を提供する。
我々は,X線画像からCT画像を生成することを学習するモデルに頼って,疾患の自動分類精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2021-09-23T16:35:15Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。