論文の概要: Leveraging Adversarial Learning for Pathological Fidelity in Virtual Staining
- arxiv url: http://arxiv.org/abs/2511.18946v1
- Date: Mon, 24 Nov 2025 09:56:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.148914
- Title: Leveraging Adversarial Learning for Pathological Fidelity in Virtual Staining
- Title(参考訳): 仮想染色における病的忠実度に対する逆学習の活用
- Authors: José Teixeira, Pascal Klöckner, Diana Montezuma, Melis Erdal Cesur, João Fraga, Hugo M. Horlings, Jaime S. Cardoso, Sara P. Oliveira,
- Abstract要約: 本研究では,条件付き生成逆ネットワークに基づく仮想染色モデルを構築した。
病理組織学的鑑定により病理組織像の高度化を図った。
- 参考スコア(独自算出の注目度): 2.030529002782949
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In addition to evaluating tumor morphology using H&E staining, immunohistochemistry is used to assess the presence of specific proteins within the tissue. However, this is a costly and labor-intensive technique, for which virtual staining, as an image-to-image translation task, offers a promising alternative. Although recent, this is an emerging field of research with 64% of published studies just in 2024. Most studies use publicly available datasets of H&E-IHC pairs from consecutive tissue sections. Recognizing the training challenges, many authors develop complex virtual staining models based on conditional Generative Adversarial Networks, but ignore the impact of adversarial loss on the quality of virtual staining. Furthermore, overlooking the issues of model evaluation, they claim improved performance based on metrics such as SSIM and PSNR, which are not sufficiently robust to evaluate the quality of virtually stained images. In this paper, we developed CSSP2P GAN, which we demonstrate to achieve heightened pathological fidelity through a blind pathological expert evaluation. Furthermore, while iteratively developing our model, we study the impact of the adversarial loss and demonstrate its crucial role in the quality of virtually stained images. Finally, while comparing our model with reference works in the field, we underscore the limitations of the currently used evaluation metrics and demonstrate the superior performance of CSSP2P GAN.
- Abstract(参考訳): H&E染色を用いた腫瘍形態の評価に加えて、免疫組織化学は組織内の特定のタンパク質の存在を評価するために用いられる。
しかし、これはコストがかかる労働集約的な手法であり、仮想染色は画像から画像への変換タスクとして、有望な代替手段を提供する。
これは近年ではあるものの、2024年に発表された研究の64%を占める新たな研究分野である。
ほとんどの研究では、連続した組織セクションから得られるH&E-IHCペアのデータセットが公開されている。
トレーニングの課題を認識した多くの著者は、条件付き生成的敵ネットワークに基づく複雑な仮想染色モデルを開発するが、仮想染色の品質に対する敵対的損失の影響を無視する。
さらに、モデル評価の問題を見越して、仮想染色画像の品質を十分に評価できないSSIMやPSNRといったメトリクスに基づく性能改善を主張している。
そこで本研究では,CSSP2P GANを開発した。
さらに,本モデルの開発を反復的に進めながら,敵対的損失の影響について検討し,仮想染色画像の品質におけるその重要な役割を実証した。
最後に、我々のモデルとフィールドでの参照処理を比較しながら、現在使用されている評価指標の限界を強調し、CSSP2P GANの優れた性能を示す。
関連論文リスト
- Perceptual Evaluation of GANs and Diffusion Models for Generating X-rays [0.7578439720012189]
生成画像モデルは、自然画像と医療画像の両方において顕著な進歩を遂げている。
4つの異常を条件に胸部X線を合成するための最先端生成モデル-GAN(Generative Adversarial Networks)と拡散モデル(Diffusion Models)の有効性を評価する。
論文 参考訳(メタデータ) (2025-08-10T00:32:18Z) - From Pixels to Pathology: Restoration Diffusion for Diagnostic-Consistent Virtual IHC [37.284994932355865]
本稿では,仮想染色を画像復元タスクとして再構成する構造対応染色復元拡散モデルであるStar-Diffを紹介する。
残留物とノイズに基づく生成経路を組み合わせることで、スターディフは現実的なバイオマーカーの変動をモデル化しながら組織構造を維持する。
BCIデータセットの実験は、Star-Diffが視覚的忠実度と診断関連性の両方で最先端(SOTA)のパフォーマンスを達成することを示した。
論文 参考訳(メタデータ) (2025-08-04T15:36:58Z) - Pathology-Guided Virtual Staining Metric for Evaluation and Training [0.49998148477760973]
PaPIS(Pathology-Aware Perceptual Image similarity)は、仮想染色評価に適したFR-IQA尺度である。
PaPISは、病理関連視覚的手がかりとより正確に一致し、微妙な細胞構造を区別する。
論文 参考訳(メタデータ) (2025-07-16T20:39:55Z) - Doctor Approved: Generating Medically Accurate Skin Disease Images through AI-Expert Feedback [38.02278639161175]
本稿では,データ拡張のための臨床的精度の高い皮膚疾患像を合成する新しいフレームワークMAGICを提案する。
提案手法は,専門家定義基準を,DM画像合成のための実用的なフィードバックに創造的に変換する。
論文 参考訳(メタデータ) (2025-06-14T03:15:09Z) - Metrics that matter: Evaluating image quality metrics for medical image generation [48.85783422900129]
本研究は、脳MRIデータを用いて、一般的に使用される非参照画像品質指標を包括的に評価する。
本研究は, ノイズ, 分布変化, および臨床的に関係のある不正確さを模倣した形態的変化を含む, 様々な課題に対する計量感度を評価する。
論文 参考訳(メタデータ) (2025-05-12T01:57:25Z) - Hierarchical Self-Supervised Adversarial Training for Robust Vision Models in Histopathology [64.46054930696052]
敵対的攻撃は、医療のような重要な分野におけるビジョンモデルに重大な課題をもたらす。
既存の自己監督型逆行訓練手法は、病理像の階層構造を見落としている。
本稿では,これらの特性を活かした階層型自己監督適応訓練(HSAT)を提案する。
論文 参考訳(メタデータ) (2025-03-13T17:59:47Z) - Generating Seamless Virtual Immunohistochemical Whole Slide Images with Content and Color Consistency [2.063403009505468]
免疫組織化学(IHC)染色は、病理医の医療画像解析において重要な役割を担い、様々な疾患の診断に重要な情報を提供する。
ヘマトキシリンとエオシン(H&E)を染色した全スライド画像(WSI)の仮想染色により、高価な物理的染色プロセスなしで他の有用なICC染色を自動生成することができる。
タイルワイズ処理に基づく現在の仮想WSI生成法は、タイル境界における内容、テクスチャ、色の不整合に悩まされることが多い。
GANモデルを拡張した新しい一貫したWSI合成ネットワークCC-WSI-Netを提案する。
論文 参考訳(メタデータ) (2024-10-01T21:02:16Z) - Multibranch Generative Models for Multichannel Imaging with an Application to PET/CT Synergistic Reconstruction [42.95604565673447]
本稿では,マルチブランチ生成モデルを用いた医用画像の相乗的再構築のための新しい手法を提案する。
我々は,MNIST (Modified National Institute of Standards and Technology) とPET (positron emission tomography) とCT (Computed tomography) の2つのデータセットに対するアプローチの有効性を実証した。
論文 参考訳(メタデータ) (2024-04-12T18:21:08Z) - Harmonizing Pathological and Normal Pixels for Pseudo-healthy Synthesis [68.5287824124996]
そこで本研究では,新しいタイプの識別器であるセグメンタを提案し,病変の正確な特定と擬似健康画像の視覚的品質の向上を図っている。
医用画像強調に生成画像を適用し,低コントラスト問題に対処するために拡張結果を利用する。
BraTSのT2モダリティに関する総合的な実験により、提案手法は最先端の手法よりも大幅に優れていることが示された。
論文 参考訳(メタデータ) (2022-03-29T08:41:17Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - StyPath: Style-Transfer Data Augmentation For Robust Histology Image
Classification [6.690876060631452]
我々は,StyPathに基づくAMR分類のための,堅牢なディープニューラルネットワークを構築するための新しいパイプラインを提案する。
それぞれの画像は、1GTX V TITANとpytorchを使って1.84 + 0.03秒で生成された。
以上の結果から,本手法は組織学的分類性能を向上させることが示唆された。
論文 参考訳(メタデータ) (2020-07-09T18:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。