論文の概要: SCFANet: Style Distribution Constraint Feature Alignment Network For Pathological Staining Translation
- arxiv url: http://arxiv.org/abs/2504.00490v1
- Date: Tue, 01 Apr 2025 07:29:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-03 13:22:02.998913
- Title: SCFANet: Style Distribution Constraint Feature Alignment Network For Pathological Staining Translation
- Title(参考訳): SCFANet:病的スタンディング翻訳のためのスタイル分散制約特徴アライメントネットワーク
- Authors: Zetong Chen, Yuzhuo Chen, Hai Zhong, Xu Qiao,
- Abstract要約: SCFANet(Style Distribution Constraint Feature Alignment Network)
SCFANetはStyle Distribution Constrainer(SDC)とFeature Alignment Learning(FAL)の2つの革新的なモジュールを組み込んでいる。
我々のSCFANetモデルは既存の手法より優れており、H&E画像の正確なIHC画像への変換を実現している。
- 参考スコア(独自算出の注目度): 0.11999555634662631
- License:
- Abstract: Immunohistochemical (IHC) staining serves as a valuable technique for detecting specific antigens or proteins through antibody-mediated visualization. However, the IHC staining process is both time-consuming and costly. To address these limitations, the application of deep learning models for direct translation of cost-effective Hematoxylin and Eosin (H&E) stained images into IHC stained images has emerged as an efficient solution. Nevertheless, the conversion from H&E to IHC images presents significant challenges, primarily due to alignment discrepancies between image pairs and the inherent diversity in IHC staining style patterns. To overcome these challenges, we propose the Style Distribution Constraint Feature Alignment Network (SCFANet), which incorporates two innovative modules: the Style Distribution Constrainer (SDC) and Feature Alignment Learning (FAL). The SDC ensures consistency between the generated and target images' style distributions while integrating cycle consistency loss to maintain structural consistency. To mitigate the complexity of direct image-to-image translation, the FAL module decomposes the end-to-end translation task into two subtasks: image reconstruction and feature alignment. Furthermore, we ensure pathological consistency between generated and target images by maintaining pathological pattern consistency and Optical Density (OD) uniformity. Extensive experiments conducted on the Breast Cancer Immunohistochemical (BCI) dataset demonstrate that our SCFANet model outperforms existing methods, achieving precise transformation of H&E-stained images into their IHC-stained counterparts. The proposed approach not only addresses the technical challenges in H&E to IHC image translation but also provides a robust framework for accurate and efficient stain conversion in pathological analysis.
- Abstract(参考訳): 免疫組織化学(IHC)染色は、抗体を介する可視化を通じて特定の抗原やタンパク質を検出するための貴重な技術である。
しかし、IHC染色プロセスは時間がかかり費用もかかる。
これらの制約に対処するために、コスト効率のよいヘマトキシリンとエオシン(H&E)染色画像のIHC染色画像への直接翻訳にディープラーニングモデルを適用することが、効率的なソリューションとして登場した。
それでも、H&EからIHC画像への変換は、主に画像ペア間のアライメントの相違と、IHC染色スタイルパターンの固有の多様性が原因で、大きな課題を呈している。
これらの課題を克服するために,Style Distribution Constraint Feature Alignment Network (SCFANet) を提案し,Style Distribution Constrainer (SDC) とFeature Alignment Learning (FAL) の2つの革新的なモジュールを組み込んだ。
SDCは、生成画像とターゲット画像のスタイル分布間の整合性を確保し、サイクル整合性損失を統合して構造的整合性を維持する。
直接画像変換の複雑さを軽減するため、FALモジュールは、エンドツーエンドの翻訳タスクを2つのサブタスクに分解する。
さらに,病的パターンの整合性と光密度(OD)の均一性を維持することにより,生成画像と対象画像の病理的整合性を確保する。
乳癌免疫組織化学(BCI)データセットを用いて行った広範囲な実験により、我々のSCFANetモデルは既存の手法よりも優れており、H&E染色画像からICC染色画像への正確な変換が達成されている。
提案手法は,H&E から IHC 画像翻訳における技術的課題に対処するだけでなく,病理解析における高精度かつ効率的な染色変換のための堅牢なフレームワークを提供する。
関連論文リスト
- StealthDiffusion: Towards Evading Diffusion Forensic Detection through Diffusion Model [62.25424831998405]
StealthDiffusionは、AI生成した画像を高品質で受け入れがたい敵の例に修正するフレームワークである。
ホワイトボックスとブラックボックスの設定の両方で有効であり、AI生成した画像を高品質な敵の偽造に変換する。
論文 参考訳(メタデータ) (2024-08-11T01:22:29Z) - Advancing H&E-to-IHC Stain Translation in Breast Cancer: A Multi-Magnification and Attention-Based Approach [13.88935300094334]
本稿では,アテンション機構と多機能情報処理を統合した新しいモデルを提案する。
本モデルでは,病理画像内の様々な倍率から情報を抽出し,活用するために,多機能化処理戦略を採用している。
公開されている乳癌データセットの厳密なテストは、既存の方法よりも優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-08-04T04:55:10Z) - Pathological Semantics-Preserving Learning for H&E-to-IHC Virtual Staining [4.42401958204836]
仮想ステイニングのための病的セマンティックス保存学習法を提案する。
PSPStainは分子レベルのセマンティック情報を取り入れ、セマンティックス相互作用を強化する。
PSPStainは現在の最先端H&E-to-IHC仮想染色法より優れている。
論文 参考訳(メタデータ) (2024-07-04T05:54:00Z) - Mix-Domain Contrastive Learning for Unpaired H&E-to-IHC Stain Translation [14.719264181466766]
本研究では,非ペアH&E-to-IHCのステンレス翻訳における教師情報を活用するために,Mix-Domain Contrastive Learning法を提案する。
ミックスドメインの病理情報アグリゲーションにより、MDCLは、対応するパッチと、生成されたIHC画像の異なる位置からのパッチの成分差との病理的整合性を高める。
論文 参考訳(メタデータ) (2024-06-17T17:47:44Z) - Trajectory Consistency Distillation: Improved Latent Consistency Distillation by Semi-Linear Consistency Function with Trajectory Mapping [75.72212215739746]
軌道整合性蒸留(TCD)は、軌道整合性と戦略的サンプリングを含む。
TCDは低NFEで画像品質を著しく向上させるが、教師モデルと比較してより詳細な結果が得られる。
論文 参考訳(メタデータ) (2024-02-29T13:44:14Z) - AGMDT: Virtual Staining of Renal Histology Images with Adjacency-Guided
Multi-Domain Transfer [9.8359439975283]
画素レベルのアライメントを回避し,画像の他の領域への変換を行う新しい仮想染色フレームワーク AGMDT を提案する。
提案するフレームワーク AGMDT は,球状率検出と二部グラフマッチングにより,複数ドメインのシリアルスライスにまたがるパッチレベルのアライメントペアを検出する。
実験の結果,提案したAGMDTは,高精度な画素レベルのアライメントと未ペアドメイン転送とのバランスが良好であることがわかった。
論文 参考訳(メタデータ) (2023-09-12T17:37:56Z) - Adaptive Supervised PatchNCE Loss for Learning H&E-to-IHC Stain
Translation with Inconsistent Groundtruth Image Pairs [5.841841666625825]
本稿では,新たな損失関数であるAdaptive Supervised PatchNCE(ASP)を提案する。
提案手法は, 既存の画像から画像への変換手法より, 複数のICH染色への染色の変換に優れることを示した。
論文 参考訳(メタデータ) (2023-03-10T19:56:34Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - Robust Single Image Dehazing Based on Consistent and Contrast-Assisted
Reconstruction [95.5735805072852]
画像復調モデルのロバスト性を改善するための新しい密度変分学習フレームワークを提案する。
具体的には、デハジングネットワークは、一貫性の規則化されたフレームワークの下で最適化されている。
我々の手法は最先端のアプローチを大きく上回っている。
論文 参考訳(メタデータ) (2022-03-29T08:11:04Z) - Modality-Adaptive Mixup and Invariant Decomposition for RGB-Infrared
Person Re-Identification [84.32086702849338]
RGB-赤外線人物再同定のための新しいモダリティ適応混合・不変分解(MID)手法を提案する。
MIDは、RGBと赤外線画像の混合画像を生成するためのモダリティ適応混合方式を設計する。
2つの挑戦的なベンチマーク実験は、最先端の手法よりもMIDの優れた性能を示す。
論文 参考訳(メタデータ) (2022-03-03T14:26:49Z) - Towards Unbiased COVID-19 Lesion Localisation and Segmentation via
Weakly Supervised Learning [66.36706284671291]
本研究では,画像レベルラベルのみに監視されたデータ駆動型フレームワークを提案する。
このフレームワークは、生成する対向ネットワークと病変特異的デコーダの助けを借りて、原画像から潜在的な病変を明示的に分離することができる。
論文 参考訳(メタデータ) (2021-03-01T06:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。