論文の概要: K-Stain: Keypoint-Driven Correspondence for H&E-to-IHC Virtual Staining
- arxiv url: http://arxiv.org/abs/2511.06709v1
- Date: Mon, 10 Nov 2025 05:04:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.082862
- Title: K-Stain: Keypoint-Driven Correspondence for H&E-to-IHC Virtual Staining
- Title(参考訳): K-Stain: H&E-to-IHC仮想ステインのためのキーポイント駆動対応
- Authors: Sicheng Yang, Zhaohu Xing, Haipeng Zhou, Lei Zhu,
- Abstract要約: 仮想染色は、ヘマトキシリンおよびエオシン(H&E)画像を免疫組織化学的(IHC)画像に変換するための有望な方法を提供する。
既存の方法は、組織スライスにおける不整合のため、空間情報の有効利用に苦慮することが多い。
K-Stainは、キーポイントに基づく空間的および意味的な関係を利用して、合成したIHC画像の忠実度を向上させる新しいフレームワークである。
- 参考スコア(独自算出の注目度): 18.224982289885443
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual staining offers a promising method for converting Hematoxylin and Eosin (H&E) images into Immunohistochemical (IHC) images, eliminating the need for costly chemical processes. However, existing methods often struggle to utilize spatial information effectively due to misalignment in tissue slices. To overcome this challenge, we leverage keypoints as robust indicators of spatial correspondence, enabling more precise alignment and integration of structural details in synthesized IHC images. We introduce K-Stain, a novel framework that employs keypoint-based spatial and semantic relationships to enhance synthesized IHC image fidelity. K-Stain comprises three main components: (1) a Hierarchical Spatial Keypoint Detector (HSKD) for identifying keypoints in stain images, (2) a Keypoint-aware Enhancement Generator (KEG) that integrates these keypoints during image generation, and (3) a Keypoint Guided Discriminator (KGD) that improves the discriminator's sensitivity to spatial details. Our approach leverages contextual information from adjacent slices, resulting in more accurate and visually consistent IHC images. Extensive experiments show that K-Stain outperforms state-of-the-art methods in quantitative metrics and visual quality.
- Abstract(参考訳): 仮想染色は、ヘマトキシリンとエオシン(H&E)の画像を免疫組織化学(IHC)のイメージに変換するための有望な方法を提供する。
しかし, 組織切片のミスアライメントにより, 空間情報の有効利用に苦慮する場合が多い。
この課題を克服するために、我々はキーポイントを空間対応の堅牢な指標として活用し、合成したIHC画像における構造的詳細のより正確なアライメントと統合を可能にする。
K-Stainは、キーポイントに基づく空間的および意味的な関係を利用して、合成したIHC画像の忠実度を向上させる新しいフレームワークである。
K-Stainは,(1)ステン画像中のキーポイントを識別するHSKD,(2)これらのキーポイントを画像生成時に統合するキーポイント・アウェア・エンハンスメント・ジェネレータ(KEG),(3)識別器の空間的詳細に対する感度を向上させるキーポイント誘導識別器(KGD)の3つの主要コンポーネントから構成される。
提案手法は,隣接するスライスからのコンテキスト情報を利用して,より正確で視覚的に一貫したIHC画像を生成する。
大規模な実験により、K-Stainは定量的メトリクスと視覚的品質で最先端の手法より優れていることが示された。
関連論文リスト
- Building Trust in Virtual Immunohistochemistry: Automated Assessment of Image Quality [3.8391050162498135]
ディープラーニングモデルは、ヘマトキシリンとエオシン(H&E)画像から仮想化学(IHC)染色を生成することができる。
我々は16対のペア画像または未ペア画像の翻訳モデルにまたがって画像品質を決定するための、自動的かつ精度の高い基盤フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-06T18:09:09Z) - PRINTER:Deformation-Aware Adversarial Learning for Virtual IHC Staining with In Situ Fidelity [18.922782766983378]
PRINTERは、PRototype-drIvenコンテンツとstaiNing patTERnデカップリングと変形対応の逆学習戦略を統合した弱い教師付きフレームワークである。
私たちの研究は、仮想染色のための堅牢でスケーラブルなソリューションを提供し、計算病理学の分野を前進させます。
論文 参考訳(メタデータ) (2025-09-01T07:53:05Z) - SCFANet: Style Distribution Constraint Feature Alignment Network For Pathological Staining Translation [0.11999555634662631]
SCFANet(Style Distribution Constraint Feature Alignment Network)
SCFANetはStyle Distribution Constrainer(SDC)とFeature Alignment Learning(FAL)の2つの革新的なモジュールを組み込んでいる。
我々のSCFANetモデルは既存の手法より優れており、H&E画像の正確なIHC画像への変換を実現している。
論文 参考訳(メタデータ) (2025-04-01T07:29:53Z) - "Principal Components" Enable A New Language of Images [79.45806370905775]
証明可能なPCAのような構造を潜在トークン空間に組み込む新しい視覚トークン化フレームワークを導入する。
提案手法は、最先端の再構築性能を実現し、人間の視覚システムとの整合性を向上する。
論文 参考訳(メタデータ) (2025-03-11T17:59:41Z) - Pathological Semantics-Preserving Learning for H&E-to-IHC Virtual Staining [4.42401958204836]
仮想ステイニングのための病的セマンティックス保存学習法を提案する。
PSPStainは分子レベルのセマンティック情報を取り入れ、セマンティックス相互作用を強化する。
PSPStainは現在の最先端H&E-to-IHC仮想染色法より優れている。
論文 参考訳(メタデータ) (2024-07-04T05:54:00Z) - Improving Vision Anomaly Detection with the Guidance of Language
Modality [64.53005837237754]
本稿では,マルチモーダルの観点から視覚モダリティの課題に取り組む。
本稿では,冗長な情報問題とスパース空間問題に対処するために,クロスモーダルガイダンス(CMG)を提案する。
視覚異常検出のためのよりコンパクトな潜在空間を学習するために、CMLEは言語モダリティから相関構造行列を学習する。
論文 参考訳(メタデータ) (2023-10-04T13:44:56Z) - K-Space-Aware Cross-Modality Score for Synthesized Neuroimage Quality
Assessment [71.27193056354741]
クロスモダリティな医用画像合成をどう評価するかという問題は、ほとんど解明されていない。
本稿では,この課題の進展を促すため,新しい指標K-CROSSを提案する。
K-CROSSは、トレーニング済みのマルチモードセグメンテーションネットワークを使用して、病変の位置を予測する。
論文 参考訳(メタデータ) (2023-07-10T01:26:48Z) - Towards High Performance Human Keypoint Detection [87.1034745775229]
文脈情報は人体構成や見えないキーポイントを推論する上で重要な役割を担っている。
そこで我々は,空間とチャネルのコンテキスト情報を効率的に統合するカスケードコンテキストミキサー(CCM)を提案する。
CCMの表現能力を最大化するために、我々は、強陰性な人検出マイニング戦略と共同訓練戦略を開発する。
検出精度を向上させるために,キーポイント予測を後処理するためのいくつかのサブピクセル改良手法を提案する。
論文 参考訳(メタデータ) (2020-02-03T02:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。