論文の概要: Synthetic Lung X-ray Generation through Cross-Attention and Affinity Transformation
- arxiv url: http://arxiv.org/abs/2503.07209v1
- Date: Mon, 10 Mar 2025 11:48:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:50:59.087544
- Title: Synthetic Lung X-ray Generation through Cross-Attention and Affinity Transformation
- Title(参考訳): 交叉・親和性変換による合成肺X線生成
- Authors: Ruochen Pi, Lianlei Shan,
- Abstract要約: 本稿では,合成肺X線画像から高精度なセマンティックマスクの自動生成手法を提案する。
テキストと画像間の相互アテンションマッピングを使用して、テキスト駆動画像合成をセマンティックマスク生成に拡張する。
実験結果から,本手法を用いて生成した合成データに基づいて学習したセグメンテーションモデルは,実際のデータセットで学習したモデルと同等であり,場合によっては同等であることがわかった。
- 参考スコア(独自算出の注目度): 4.956977275061966
- License:
- Abstract: Collecting and annotating medical images is a time-consuming and resource-intensive task. However, generating synthetic data through models such as Diffusion offers a cost-effective alternative. This paper introduces a new method for the automatic generation of accurate semantic masks from synthetic lung X-ray images based on a stable diffusion model trained on text-image pairs. This method uses cross-attention mapping between text and image to extend text-driven image synthesis to semantic mask generation. It employs text-guided cross-attention information to identify specific areas in an image and combines this with innovative techniques to produce high-resolution, class-differentiated pixel masks. This approach significantly reduces the costs associated with data collection and annotation. The experimental results demonstrate that segmentation models trained on synthetic data generated using the method are comparable to, and in some cases even better than, models trained on real datasets. This shows the effectiveness of the method and its potential to revolutionize medical image analysis.
- Abstract(参考訳): 医用画像の収集と注釈付けは時間を要する作業である。
しかし、Diffusionのようなモデルによる合成データの生成はコスト効率の良い代替手段となる。
そこで本研究では,テキストイメージペアを用いた安定拡散モデルに基づいて,合成肺X線画像から高精度なセマンティックマスクの自動生成手法を提案する。
本手法では、テキストと画像間の相互アテンションマッピングを用いて、テキスト駆動画像合成をセマンティックマスク生成に拡張する。
画像内の特定の領域を特定するためにテキスト誘導のクロスアテンション情報を使用し、これを革新的な技術と組み合わせ、高解像度でクラス分化したピクセルマスクを生成する。
このアプローチは、データ収集とアノテーションに関連するコストを大幅に削減します。
実験結果から,本手法を用いて生成した合成データに基づいて学習したセグメンテーションモデルは,実際のデータセットで学習したモデルと同等であり,場合によっては同等であることがわかった。
本手法の有効性と医用画像解析に革命をもたらす可能性を示す。
関連論文リスト
- PriorPath: Coarse-To-Fine Approach for Controlled De-Novo Pathology Semantic Masks Generation [0.0]
粗い粒度の画像から得られた詳細でリアルなセマンティックマスクを生成するパイプラインであるPresidePathを提案する。
このアプローチにより、生成されたマスクの空間配置を制御でき、結果として合成画像が生成される。
論文 参考訳(メタデータ) (2024-11-25T15:57:19Z) - Seek for Incantations: Towards Accurate Text-to-Image Diffusion
Synthesis through Prompt Engineering [118.53208190209517]
本稿では,拡散モデルの適切なテキスト記述を即時学習により学習するフレームワークを提案する。
提案手法は,入力されたテキストと生成された画像とのマッチングを改善するためのプロンプトを効果的に学習することができる。
論文 参考訳(メタデータ) (2024-01-12T03:46:29Z) - Learned representation-guided diffusion models for large-image generation [58.192263311786824]
自己教師型学習(SSL)からの埋め込みを条件とした拡散モデルを訓練する新しいアプローチを導入する。
我々の拡散モデルは、これらの特徴を高品質な病理組織学およびリモートセンシング画像に投影することに成功した。
実画像のバリエーションを生成して実データを増やすことにより、パッチレベルおよび大規模画像分類タスクの下流精度が向上する。
論文 参考訳(メタデータ) (2023-12-12T14:45:45Z) - DiffBoost: Enhancing Medical Image Segmentation via Text-Guided Diffusion Model [3.890243179348094]
医療応用のための堅牢で成功したディープラーニングモデルを開発するためには、大規模で大きな変動のある高品質なデータが不可欠である。
本稿では,DiffBoostと呼ばれる医用画像合成のための制御可能な拡散モデルを提案する。
近年の拡散確率モデルを利用して、現実的で多様な合成医用画像データを生成する。
論文 参考訳(メタデータ) (2023-10-19T16:18:02Z) - MaskDiffusion: Boosting Text-to-Image Consistency with Conditional Mask [84.84034179136458]
テキスト・イメージのミスマッチ問題に繋がる重要な要因は、モダリティ間の関係学習の不十分さである。
本稿では,注目マップと迅速な埋め込みを条件とした適応マスクを提案し,画像特徴に対する各テキストトークンの寄与度を動的に調整する。
この手法はMaskDiffusionと呼ばれ、トレーニング不要で、一般的な事前学習拡散モデルに対してホットプラグ可能である。
論文 参考訳(メタデータ) (2023-09-08T15:53:37Z) - From Text to Mask: Localizing Entities Using the Attention of Text-to-Image Diffusion Models [38.14123683674355]
本稿では,テキスト・画像拡散モデルの認知ネットワークにおける注意機構を利用する手法を提案する。
そこで我々はPascal VOC 2012 と Microsoft COCO 2014 のセマンティックセグメンテーションを弱教師付きで評価した。
本研究は,セグメンテーションの拡散モデルに隠された豊富なマルチモーダル知識を抽出する方法を明らかにする。
論文 参考訳(メタデータ) (2023-09-08T04:10:01Z) - Parents and Children: Distinguishing Multimodal DeepFakes from Natural Images [60.34381768479834]
近年の拡散モデルの発展により、自然言語のテキストプロンプトから現実的なディープフェイクの生成が可能になった。
我々は、最先端拡散モデルにより生成されたディープフェイク検出に関する体系的研究を開拓した。
論文 参考訳(メタデータ) (2023-04-02T10:25:09Z) - DiffuMask: Synthesizing Images with Pixel-level Annotations for Semantic
Segmentation Using Diffusion Models [68.21154597227165]
本研究では,オフザシェルフ安定拡散モデルにより生成された合成画像の正確なセマンティックマスクを自動で取得できることを示す。
我々のアプローチはDiffuMaskと呼ばれ、テキストと画像間の相互注意マップの可能性を利用しています。
論文 参考訳(メタデータ) (2023-03-21T08:43:15Z) - DEPAS: De-novo Pathology Semantic Masks using a Generative Model [0.0]
DEPASと呼ばれるスケーラブルな生成モデルを導入し、組織構造をキャプチャし、最先端の品質の高精細なセマンティックマスクを生成する。
我々は,DEPASが皮膚,前立腺,肺の3種類の臓器に対して,組織の現実的な意味マップを生成する能力を示した。
論文 参考訳(メタデータ) (2023-02-13T16:48:33Z) - METGAN: Generative Tumour Inpainting and Modality Synthesis in Light
Sheet Microscopy [4.872960046536882]
本稿では,実解剖情報を活用し,腫瘍の現実的な画像ラベル対を生成する新しい生成法を提案する。
解剖学的画像とラベルのためのデュアルパス生成器を構築し, 独立して事前学習されたセグメンタによって制約された, サイクル一貫性のある設定で学習する。
生成した画像は,既存の手法に比べて定量的に顕著に改善された。
論文 参考訳(メタデータ) (2021-04-22T11:18:17Z) - Pathological Retinal Region Segmentation From OCT Images Using Geometric
Relation Based Augmentation [84.7571086566595]
本稿では,幾何学と形状の内在的関係を共同で符号化することで,従来のGANベースの医用画像合成法よりも優れた手法を提案する。
提案手法は,取得手順の異なる画像を有する公開RETOUCHデータセット上で,最先端のセグメンテーション手法より優れている。
論文 参考訳(メタデータ) (2020-03-31T11:50:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。