論文の概要: Breast Ultrasound Tumor Generation via Mask Generator and Text-Guided Network:A Clinically Controllable Framework with Downstream Evaluation
- arxiv url: http://arxiv.org/abs/2507.07721v1
- Date: Thu, 10 Jul 2025 12:56:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.402129
- Title: Breast Ultrasound Tumor Generation via Mask Generator and Text-Guided Network:A Clinically Controllable Framework with Downstream Evaluation
- Title(参考訳): マスクジェネレータとテキストガイドネットワークによる乳房超音波腫瘍発生:下流評価による臨床制御可能なフレームワーク
- Authors: Haoyu Pan, Hongxin Lin, Zetian Feng, Chuxuan Lin, Junyang Mo, Chu Zhang, Zijian Wu, Yi Wang, Qingqing Zheng,
- Abstract要約: 乳房超音波(BUS)画像の合成のための臨床制御可能な生成フレームワークを提案する。
この枠組みは、臨床記述と構造マスクを統合して腫瘍を発生させ、形態、エコー、形状などの腫瘍特性をきめ細かな制御を可能にする。
推測中、合成腫瘍マスクは生成機構への入力として機能し、実世界の形態的多様性を反映した腫瘍を用いた高度にパーソナライズされた合成BUS画像を生成する。
- 参考スコア(独自算出の注目度): 6.147743049513793
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The development of robust deep learning models for breast ultrasound (BUS) image analysis is significantly constrained by the scarcity of expert-annotated data. To address this limitation, we propose a clinically controllable generative framework for synthesizing BUS images. This framework integrates clinical descriptions with structural masks to generate tumors, enabling fine-grained control over tumor characteristics such as morphology, echogencity, and shape. Furthermore, we design a semantic-curvature mask generator, which synthesizes structurally diverse tumor masks guided by clinical priors. During inference, synthetic tumor masks serve as input to the generative framework, producing highly personalized synthetic BUS images with tumors that reflect real-world morphological diversity. Quantitative evaluations on six public BUS datasets demonstrate the significant clinical utility of our synthetic images, showing their effectiveness in enhancing downstream breast cancer diagnosis tasks. Furthermore, visual Turing tests conducted by experienced sonographers confirm the realism of the generated images, indicating the framework's potential to support broader clinical applications.
- Abstract(参考訳): 乳房超音波(BUS)画像解析のための頑健な深層学習モデルの開発は,専門家注記データの不足により著しく制限されている。
この制限に対処するため,BUS画像の合成のための臨床制御可能な生成フレームワークを提案する。
この枠組みは、臨床記述と構造マスクを統合して腫瘍を発生させ、形態、エコー、形状などの腫瘍特性をきめ細かな制御を可能にする。
さらに,臨床先行研究によって誘導される構造的に多様な腫瘍マスクを合成する意味曲率マスク生成器を設計した。
推測中、合成腫瘍マスクは生成機構への入力として機能し、実世界の形態的多様性を反映した腫瘍を用いた高度にパーソナライズされた合成BUS画像を生成する。
6つの公的BUSデータセットの定量的評価により, 合成画像の臨床的有用性を示し, 下流乳がん診断タスクの強化効果を示した。
さらに、経験豊富なソノグラフィーによる視覚的チューリングテストでは、生成された画像のリアリズムが確認され、このフレームワークがより広い臨床応用をサポートする可能性を示している。
関連論文リスト
- Interactive Tumor Progression Modeling via Sketch-Based Image Editing [54.47725383502915]
腫瘍進行編集のためのスケッチベース拡散モデルであるSkEditTumorを提案する。
スケッチを構造的先行として活用することにより,構造的整合性と視覚的リアリズムを維持しつつ,腫瘍領域の精密な修正を可能にする。
私たちのコントリビューションには、医用画像編集のための拡散モデルとスケッチの新たな統合、腫瘍進行の可視化のきめ細かい制御、複数のデータセットにわたる広範な検証などが含まれています。
論文 参考訳(メタデータ) (2025-03-10T00:04:19Z) - CSG: A Context-Semantic Guided Diffusion Approach in De Novo Musculoskeletal Ultrasound Image Generation [1.727597257312416]
CSG(Context-Semantic Guidance)という,スケーラブルなセマンティック・コンテキスト条件生成モデルを提案する。
筋骨格(MSK)超音波画像におけるCSGによる所見(病理異常)の生成能力を示す。
その結果,CSGが生成した合成画像はセマンティックセグメンテーションモデルの性能を向上し,実画像との類似性を高めた。
論文 参考訳(メタデータ) (2024-12-08T06:48:09Z) - Deep Generative Models Unveil Patterns in Medical Images Through Vision-Language Conditioning [3.4299097748670255]
深部生成モデルでは、データセットのサイズと品質を向上することにより、医療画像解析が大幅に進歩している。
画像合成プロセスの指針として,臨床データとセグメンテーションマスクを組み合わせることによって,ハイブリッド条件による生成構造を用いる。
我々のアプローチは、画像と臨床情報の視覚的相関が低いため、従来の医療報告誘導合成よりも困難であり、課題である。
論文 参考訳(メタデータ) (2024-10-17T17:48:36Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Towards Generalizable Tumor Synthesis [48.45704270448412]
腫瘍合成は、医用画像における人工腫瘍の作成を可能にし、腫瘍の検出とセグメンテーションのためのAIモデルのトレーニングを容易にする。
本論文は, 臨界観察を生かして, 一般化可能な腫瘍合成に向けて進歩的な一歩を踏み出した。
私たちは、Diffusion Modelsのような生成AIモデルが、単一の臓器から限られた数の腫瘍例を訓練しても、様々な臓器に一般化された現実的な腫瘍を作成できることを確認した。
論文 参考訳(メタデータ) (2024-02-29T18:57:39Z) - Comparative Analysis of Segment Anything Model and U-Net for Breast
Tumor Detection in Ultrasound and Mammography Images [0.15833270109954137]
この技術は、2つの高度なディープラーニングアーキテクチャ、すなわち U-Net と SAM を腫瘍セグメンテーションに用いている。
U-Netモデルは医用画像セグメンテーション用に特別に設計されている。
事前訓練されたSAMアーキテクチャには、空間的依存関係をキャプチャし、セグメンテーション結果を生成するメカニズムが組み込まれている。
論文 参考訳(メタデータ) (2023-06-21T18:49:21Z) - Synthesis of Annotated Colorectal Cancer Tissue Images from Gland Layout [0.0]
合成生成された画像とアノテーションは、この領域におけるアルゴリズムのトレーニングと評価に有用である。
そこで本研究では, 腺構造レイアウトから, 対応する腺マスクを用いて, リアルな大腸癌組織像を生成するインタラクティブなフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-08T19:25:50Z) - Image Synthesis with Disentangled Attributes for Chest X-Ray Nodule
Augmentation and Detection [52.93342510469636]
肺癌早期検診では胸部X線像の肺結節検出が一般的である。
ディープラーニングに基づくコンピュータ支援診断(CAD)システムは、CXRの結節スクリーニングのために放射線科医をサポートすることができる。
このようなデータセットの可用性を損なうため,データ拡張のために肺結節合成法を提案する。
論文 参考訳(メタデータ) (2022-07-19T16:38:48Z) - Learned super resolution ultrasound for improved breast lesion
characterization [52.77024349608834]
超高分解能超音波局在顕微鏡は毛細血管レベルでの微小血管のイメージングを可能にする。
この作業では、これらの課題に対処するために、信号構造を効果的に活用するディープニューラルネットワークアーキテクチャを使用します。
トレーニングしたネットワークを利用することで,従来のPSF知識を必要とせず,UCAの分離性も必要とせず,短時間で微小血管構造を復元する。
論文 参考訳(メタデータ) (2021-07-12T09:04:20Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。