論文の概要: Phase-fraction guided denoising diffusion model for augmenting multiphase steel microstructure segmentation via micrograph image-mask pair synthesis
- arxiv url: http://arxiv.org/abs/2508.00896v1
- Date: Mon, 28 Jul 2025 02:55:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.611398
- Title: Phase-fraction guided denoising diffusion model for augmenting multiphase steel microstructure segmentation via micrograph image-mask pair synthesis
- Title(参考訳): マイクログラフ画像-マスク対合成による多相鋼組織分断強化のための位相差誘導脱ノイズ拡散モデル
- Authors: Hoang Hai Nam Nguyen, Minh Tien Tran, Hoheok Kim, Ho Won Lee,
- Abstract要約: PF-DiffSegは位相制御された1段階の拡散フレームワークである。
大域的位相差ベクトルの条件付けにより,本モデルは構成的妥当性と構造的コヒーレントな微細構造像とマスク試料を生成する。
この方法は、生成と条件付けを統一されたフレームワークに統合し、メタログラフィーアプリケーションにおけるデータ拡張のためのスケーラブルなソリューションを提供する。
- 参考スコア(独自算出の注目度): 0.25624051094852496
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The effectiveness of machine learning in metallographic microstructure segmentation is often constrained by the lack of human-annotated phase masks, particularly for rare or compositionally complex morphologies within the metal alloy. We introduce PF-DiffSeg, a phase-fraction controlled, one-stage denoising diffusion framework that jointly synthesizes microstructure images and their corresponding segmentation masks in a single generative trajectory to further improve segmentation accuracy. By conditioning on global phase-fraction vectors, augmented to represent real data distribution and emphasize minority classes, our model generates compositionally valid and structurally coherent microstructure image and mask samples that improve both data diversity and training efficiency. Evaluated on the MetalDAM benchmark for additively manufactured multiphase steel, our synthetic augmentation method yields notable improvements in segmentation accuracy compared to standard augmentation strategies especially in minority classes and further outperforms a two-stage mask-guided diffusion and generative adversarial network (GAN) baselines, while also reducing inference time compared to conventional approach. The method integrates generation and conditioning into a unified framework, offering a scalable solution for data augmentation in metallographic applications.
- Abstract(参考訳): 金属組織セグメンテーションにおける機械学習の有効性は、特に金属合金内での希少または組成的に複雑な形態について、人間の注釈付き位相マスクの欠如によって制約されることが多い。
PF-DiffSegは位相制御された1段階のデノナイズ拡散フレームワークで、マイクロ構造画像とそれに対応するセグメンテーションマスクを1つの生成軌道で共同で合成し、セグメンテーション精度をさらに向上する。
実データ分布を表現し,マイノリティクラスを重視したグローバル位相差ベクトルの条件付けにより,本モデルでは,データ多様性とトレーニング効率を両立させる構成的妥当性と構造的コヒーレントな微細構造像とマスクサンプルを生成する。
添加型多相鋼のメタルDAMベンチマークで評価したところ, 合成強化法は, 特にマイノリティクラスにおける標準強化法と比較して, セグメンテーション精度が顕著に向上し, さらに, 2段階のマスク誘導拡散・生成対向ネットワーク(GAN)ベースラインよりも優れ, 従来のアプローチに比べて推論時間を短縮する。
この方法は、生成と条件付けを統一されたフレームワークに統合し、メタログラフィーアプリケーションにおけるデータ拡張のためのスケーラブルなソリューションを提供する。
関連論文リスト
- Knowledge-guided Complex Diffusion Model for PolSAR Image Classification in Contourlet Domain [58.46450049579116]
本稿では,Contourlet領域におけるPolSAR画像分類のための知識誘導複合拡散モデルを提案する。
具体的には、まずデータを低周波サブバンドと高周波サブバンドに分解するためにContourlet変換を適用する。
次に、低周波成分の統計特性をモデル化するために、知識誘導複合拡散ネットワークを設計する。
論文 参考訳(メタデータ) (2025-07-08T04:50:28Z) - Improving Progressive Generation with Decomposable Flow Matching [50.63174319509629]
Decomposable Flow Matching (DFM)は、ビジュアルメディアのプログレッシブな生成のためのシンプルで効果的なフレームワークである。
Imagenet-1k 512pxでは、DFMはベースアーキテクチャよりも35.2%改善され、ベースラインは26.4%向上した。
論文 参考訳(メタデータ) (2025-06-24T17:58:02Z) - MSF: Efficient Diffusion Model Via Multi-Scale Latent Factorize [18.73205699076486]
マルチスケールの潜在因数分解を利用した拡散フレームワークを提案する。
我々のフレームワークは、事前訓練された変分オートエンコーダから遅延する特徴を低周波ベース信号に分解する。
提案アーキテクチャは,残差学習段階におけるサンプリングステップの削減を容易にする。
論文 参考訳(メタデータ) (2025-01-23T03:18:23Z) - Efficient Diffusion Transformer with Step-wise Dynamic Attention Mediators [83.48423407316713]
本稿では,クエリとキーを別々に扱うために,追加の仲介者トークンを組み込んだ新しい拡散トランスフォーマーフレームワークを提案する。
本モデルでは, 正確な非曖昧な段階を呈し, 詳細に富んだ段階へと徐々に遷移する。
本手法は,最近のSiTと統合した場合に,最先端のFIDスコア2.01を達成する。
論文 参考訳(メタデータ) (2024-08-11T07:01:39Z) - Diffusion-driven lensless fiber endomicroscopic quantitative phase imaging towards digital pathology [43.237550839304774]
マルチコアファイバ(MCF)の検出側で捕獲されたスペックルから直接位相像を再構成するためのスペックル条件拡散モデル(SpecDiffusion)を提案する。
従来のニューラルネットワークとは異なり、SpecDiffusionはスペックル駆動の位相再構成に反復的な位相分解ステップを採用している。
SpecDiffusionは高忠実度位相再構成結果を提供し、見えない物体に対して強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-26T01:42:31Z) - Multi-scale Conditional Generative Modeling for Microscopic Image Restoration [9.345394120765123]
ウェーブレット領域内でのブラウンブリッジプロセスの新たな活用により条件付き画像復元を促進するマルチスケール生成モデルを提案する。
提案手法は,SOTA拡散モデルに匹敵する画像生成品質と多様性を維持しつつ,トレーニングおよびサンプリング中に顕著な加速を提供する。
この先駆的な技術は、効率と品質を調和させる効率的な画像復元フレームワークを提供し、最先端の生成モデルを計算顕微鏡に組み込む際の大きな進歩を示している。
論文 参考訳(メタデータ) (2024-07-07T05:11:00Z) - Structure-Guided Adversarial Training of Diffusion Models [27.723913809313125]
拡散モデル(SADM)の構造誘導型逆トレーニングについて紹介する。
トレーニングバッチ毎にサンプル間の多様体構造を学習するようにモデルを強制する。
SADMは既存の拡散変換器を大幅に改善し、画像生成や微調整タスクにおいて既存の手法より優れている。
論文 参考訳(メタデータ) (2024-02-27T15:05:13Z) - Fluctuation-based deconvolution in fluorescence microscopy using
plug-and-play denoisers [2.236663830879273]
蛍光顕微鏡で得られた生きた試料の画像の空間分解能は、可視光の回折により物理的に制限される。
この制限を克服するために、いくつかのデコンボリューションと超解像技術が提案されている。
論文 参考訳(メタデータ) (2023-03-20T15:43:52Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Multi-Channel Convolutional Analysis Operator Learning for Dual-Energy
CT Reconstruction [108.06731611196291]
我々は,多チャンネル畳み込み解析演算子学習法(MCAOL)を開発した。
本研究では,低エネルギー,高エネルギーで減衰画像を共同で再構成する最適化手法を提案する。
論文 参考訳(メタデータ) (2022-03-10T14:22:54Z) - Kullback-Leibler Divergence-Based Fuzzy $C$-Means Clustering
Incorporating Morphological Reconstruction and Wavelet Frames for Image
Segmentation [152.609322951917]
そこで我々は,厳密なウェーブレットフレーム変換と形態的再構成操作を組み込むことで,Kulback-Leibler (KL) 発散に基づくFuzzy C-Means (FCM) アルゴリズムを考案した。
提案アルゴリズムはよく機能し、他の比較アルゴリズムよりもセグメンテーション性能が優れている。
論文 参考訳(メタデータ) (2020-02-21T05:19:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。