論文の概要: Bidirectional Mammogram View Translation with Column-Aware and Implicit 3D Conditional Diffusion
- arxiv url: http://arxiv.org/abs/2510.04947v1
- Date: Mon, 06 Oct 2025 15:48:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.959907
- Title: Bidirectional Mammogram View Translation with Column-Aware and Implicit 3D Conditional Diffusion
- Title(参考訳): Column-Aware と Implicit 3D Conditional Diffusion を用いた双方向マンモグラム画像変換
- Authors: Xin Li, Kaixiang Yang, Qiang Li, Zhiwei Wang,
- Abstract要約: ビュー・ツー・ビューの翻訳は、行方不明のビューを回復し、病変のアライメントを改善するのに役立つ。
自然画像とは異なり、マンモグラフィーにおけるこの課題は、X線投影において大きな非剛性変形と重い組織が重なり合うため、非常に困難である。
本稿では,新しい双方向マンモグラムビュー変換フレームワークであるカラム・アウェア・インプリシット3次元拡散(CA3D-Diff)を提案する。
- 参考スコア(独自算出の注目度): 17.309030641962
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dual-view mammography, including craniocaudal (CC) and mediolateral oblique (MLO) projections, offers complementary anatomical views crucial for breast cancer diagnosis. However, in real-world clinical workflows, one view may be missing, corrupted, or degraded due to acquisition errors or compression artifacts, limiting the effectiveness of downstream analysis. View-to-view translation can help recover missing views and improve lesion alignment. Unlike natural images, this task in mammography is highly challenging due to large non-rigid deformations and severe tissue overlap in X-ray projections, which obscure pixel-level correspondences. In this paper, we propose Column-Aware and Implicit 3D Diffusion (CA3D-Diff), a novel bidirectional mammogram view translation framework based on conditional diffusion model. To address cross-view structural misalignment, we first design a column-aware cross-attention mechanism that leverages the geometric property that anatomically corresponding regions tend to lie in similar column positions across views. A Gaussian-decayed bias is applied to emphasize local column-wise correlations while suppressing distant mismatches. Furthermore, we introduce an implicit 3D structure reconstruction module that back-projects noisy 2D latents into a coarse 3D feature volume based on breast-view projection geometry. The reconstructed 3D structure is refined and injected into the denoising UNet to guide cross-view generation with enhanced anatomical awareness. Extensive experiments demonstrate that CA3D-Diff achieves superior performance in bidirectional tasks, outperforming state-of-the-art methods in visual fidelity and structural consistency. Furthermore, the synthesized views effectively improve single-view malignancy classification in screening settings, demonstrating the practical value of our method in real-world diagnostics.
- Abstract(参考訳): 乳腺癌診断において, 頭蓋骨(CC), 側方斜視(MLO)投射などの二重視下マンモグラフィでは, 相補的解剖学的所見が重要である。
しかし、実際の臨床ワークフローでは、下流分析の有効性を制限するために、取得エラーや圧縮アーティファクトによって1つのビューが欠落したり、破損したり、劣化したりすることがある。
ビュー・ツー・ビューの翻訳は、行方不明のビューを回復し、病変のアライメントを改善するのに役立つ。
自然画像とは異なり、マンモグラフィーにおけるこの課題は、X線投影において大きな非剛性変形と重い組織が重なり、ピクセルレベルの不明瞭な対応のため、非常に困難である。
本稿では,条件付き拡散モデルに基づく新しい双方向マンモグラムビュー変換フレームワークであるClumn-Aware and Implicit 3D Diffusion (CA3D-Diff)を提案する。
クロスビュー構造的不整合に対処するために、まず、解剖学的に対応する領域がビューにまたがる同様の列位置にある傾向にある幾何学的特性を利用する、カラム対応のクロスアテンション機構を設計する。
ガウス解離バイアスを適用して、距離ミスマッチを抑えながら、局所的なカラムワイズ相関を強調する。
さらに,胸像投影形状に基づく粗い3次元特徴量に雑音の多い2次元ラテントをバックプロジェクションする暗黙の3次元構造再構成モジュールを導入する。
再構成された3D構造を改良し、解剖学的認知度を高めたクロスビュー生成を誘導するために、デノナイズされたUNetに注入する。
広汎な実験により、CA3D-Diffは双方向タスクにおいて優れた性能を示し、視覚的忠実度と構造的整合性において最先端の手法より優れていた。
さらに, 実地診断における本手法の有効性を実証し, スクリーニング環境での単視点悪性度分類を効果的に改善した。
関連論文リスト
- Neural Image Unfolding: Flattening Sparse Anatomical Structures using Neural Fields [6.5082099033254135]
トモグラフィーは3次元物体の内部構造を明らかにし、診断に不可欠である。
臓器特異的な展開技術は、密集した3次元表面を歪み最小化された2次元表現にマッピングするために存在する。
我々は、関心の解剖学的変換を2次元概要画像に適合させるために、ニューラルネットワークをデプロイする。
論文 参考訳(メタデータ) (2024-11-27T14:58:49Z) - DuoLift-GAN:Reconstructing CT from Single-view and Biplanar X-Rays with Generative Adversarial Networks [1.3812010983144802]
本稿では,DuoLift Generative Adversarial Networks (DuoLift-GAN)を紹介する。
これらの3D出力は統合された3D特徴マップにマージされ、完全な3D胸部ボリュームにデコードされ、よりリッチな3D情報キャプチャを可能にする。
論文 参考訳(メタデータ) (2024-11-12T17:11:18Z) - C^2RV: Cross-Regional and Cross-View Learning for Sparse-View CBCT Reconstruction [17.54830070112685]
コーンビームCT(CBCT)は医療現場で広く用いられている画像技術である。
コーン状X線による測定により, CBCTの復元が困難になる。
本稿では,3次元空間におけるクロスリージョン学習を実現するために,明示的なマルチスケールボリューム表現を活用してC2RVを提案する。
論文 参考訳(メタデータ) (2024-06-06T09:37:56Z) - GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - On the Localization of Ultrasound Image Slices within Point Distribution
Models [84.27083443424408]
甲状腺疾患は高分解能超音波(US)で診断されることが多い
縦断追跡は病理甲状腺形態の変化をモニタリングするための重要な診断プロトコルである。
3次元形状表現におけるUS画像の自動スライスローカライズのためのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-01T10:10:46Z) - JOTR: 3D Joint Contrastive Learning with Transformers for Occluded Human
Mesh Recovery [84.67823511418334]
本稿では,3次元メッシュ復元のためのTRansformersフレームワークを用いた3次元ジョイントコントラスト学習について述べる。
提案手法は,2D$&$3D対応結果を得るために,2Dおよび3D表現を融合するエンコーダ・デコーダ変換器アーキテクチャを含む。
論文 参考訳(メタデータ) (2023-07-31T02:58:58Z) - 3D Vessel Segmentation with Limited Guidance of 2D Structure-agnostic
Vessel Annotations [3.6314292723682784]
教師付き深層学習は、自動3次元血管分割において優れた能力を示している。
高価な3Dマニュアルアノテーションへの依存とアノテーションの再利用能力の制限は、教師付きモデルの臨床応用を妨げる。
本稿では,公共の2次元血管アノテーションによる限られた誘導の下での3次元血管分割のための新しい3次元形状誘導型局所識別モデルを提案する。
論文 参考訳(メタデータ) (2023-02-07T07:26:00Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。