論文の概要: Beer-Lambert Autoencoder for Unsupervised Stain Representation Learning and Deconvolution in Multi-immunohistochemical Brightfield Histology Images
- arxiv url: http://arxiv.org/abs/2601.11336v1
- Date: Fri, 16 Jan 2026 14:31:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.525224
- Title: Beer-Lambert Autoencoder for Unsupervised Stain Representation Learning and Deconvolution in Multi-immunohistochemical Brightfield Histology Images
- Title(参考訳): マルチ免疫組織学的Brightfield Histology画像における教師なしステン表現学習とデコンボリューションのためのBeer-Lambertオートエンコーダ
- Authors: Mark Eastwood, Thomas McKee, Zedong Hu, Sabine Tejpar, Fayyaz Minhas,
- Abstract要約: 本稿では,コホート固有の染色特性を学習する簡易なスライドデコーダアーキテクチャを提案する。
RGB再建は良好であり, チャネル間出血スルーは行列型脱畳術に比べて有意に減少した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Separating the contributions of individual chromogenic stains in RGB histology whole slide images (WSIs) is essential for stain normalization, quantitative assessment of marker expression, and cell-level readouts in immunohistochemistry (IHC). Classical Beer-Lambert (BL) color deconvolution is well-established for two- or three-stain settings, but becomes under-determined and unstable for multiplex IHC (mIHC) with K>3 chromogens. We present a simple, data-driven encoder-decoder architecture that learns cohort-specific stain characteristics for mIHC RGB WSIs and yields crisp, well-separated per-stain concentration maps. The encoder is a compact U-Net that predicts K nonnegative concentration channels; the decoder is a differentiable BL forward model with a learnable stain matrix initialized from typical chromogen hues. Training is unsupervised with a perceptual reconstruction objective augmented by loss terms that discourage unnecessary stain mixing. On a colorectal mIHC panel comprising 5 stains (H, CDX2, MUC2, MUC5, CD8) we show excellent RGB reconstruction, and significantly reduced inter-channel bleed-through compared with matrix-based deconvolution. Code and model are available at https://github.com/measty/StainQuant.git.
- Abstract(参考訳): RGB 組織像全体 (WSIs) における個々の発色性染色の寄与を分離することは, 染色正常化, マーカー発現の定量的評価, 免疫組織化学(IHC)における細胞レベルの読み出しに不可欠である。
古典的なBeer-Lambert(BL)色分解は2-または3-stainセッティングで良好に確立されているが、K>3のクロマトゲンを持つ多重IHC(mIHC)では不確定で不安定となる。
我々は、mIHC RGB WSIsのコホート固有の染色特性を学習し、安定度ごとの鮮明で分離された高密度マップを生成する、単純でデータ駆動型エンコーダデコーダアーキテクチャを提案する。
エンコーダはコンパクトなU-Netであり、K非負の濃度チャネルを予測する。
トレーニングは、不要な染色ミキシングを妨げる損失項によって強化された知覚再建目標によって監督されない。
5つの染色(H, CDX2, MUC2, MUC5, CD8)からなる大腸mIHCパネルでは, 良好なRGB再構成がみられ, マトリックスによる脱コンボリューションと比較して, チャネル間出血スルーが有意に減少した。
コードとモデルはhttps://github.com/measty/StainQuant.git.comで入手できる。
関連論文リスト
- Hierarchical Identity Learning for Unsupervised Visible-Infrared Person Re-Identification [81.3063589622217]
教師なし可視赤外線人物再識別(USVI-ReID)は、ラベルのないクロスモーダルな人物データセットからモダリティ不変の画像特徴を学習することを目的としている。
論文 参考訳(メタデータ) (2025-09-15T05:10:43Z) - MCGA: Mixture of Codebooks Hyperspectral Reconstruction via Grayscale-Aware Attention [14.639924169894785]
我々は,Grayscale-aware Attention frameworkを用いたMixture-of-CodebooksであるMCGAを提案する。
MCGAは異質なHSIデータセットからコードブックの混合を通じて、転送可能なスペクトル前処理を学習する。
ベンチマークと実世界のデータの実験では、最先端の精度、強力なクロスデータセットの一般化、4-5倍高速な推論が示されている。
論文 参考訳(メタデータ) (2025-07-14T03:46:06Z) - DISTA-Net: Dynamic Closely-Spaced Infrared Small Target Unmixing [55.366556355538954]
本稿では,動的フレームワーク内で従来のスパース再構築を再現する動的反復収縮閾値ネットワーク(DISTA-Net)を提案する。
DISTA-Netは、密接な空間を持つ赤外線小ターゲットのアンミックスのために特別に設計された最初のディープラーニングモデルである。
私たちはこの分野におけるさらなる研究を促進するために、最初のオープンソースエコシステムを確立しました。
論文 参考訳(メタデータ) (2025-05-25T13:52:00Z) - Structural Cycle GAN for Virtual Immunohistochemistry Staining of Gland
Markers in the Colon [1.741980945827445]
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
病理学者は、特定の構造や細胞を分析するために異種化学染色(IHC)を必要とする。
ヘマトキシリンとエオシン(H&E)染色は疾患解析、診断、グレーディングにおいて最も頻繁に用いられる染色の一つである。
論文 参考訳(メタデータ) (2023-08-25T05:24:23Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z) - CIR-Net: Cross-modality Interaction and Refinement for RGB-D Salient
Object Detection [144.66411561224507]
本稿では,CIR-Netと呼ばれる畳み込みニューラルネットワーク(CNN)モデルを提案する。
我々のネットワークは、定性的かつ定量的に最先端の塩分濃度検出器より優れています。
論文 参考訳(メタデータ) (2022-10-06T11:59:19Z) - Color Space-based HoVer-Net for Nuclei Instance Segmentation and
Classification [4.7935387855729035]
また、HoVer-Netモデルのエンコーダとして"ConvNeXt"が使用された。
Unified Focal Loss (UFL) は, 背景不均衡に対処するために用いられた。
シャープネス・アウェアの最小化 (SAM) はモデルの一般化性を保証するために用いられた。
論文 参考訳(メタデータ) (2022-03-03T10:27:36Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - The quantization error in a Self-Organizing Map as a contrast and colour
specific indicator of single-pixel change in large random patterns [0.0]
固定サイズの自己組織化マップにおける量子化誤差は、局所的なコントラスト強度とコントラスト信号の最も細かい差を確実に識別できることを示す。
QEの感度は、人間の視覚検出の容量限界を超える。
これは、教師なし画像学習と大規模画像データに対する計算ビルディングブロックアプローチの文脈において重要な意味を持つ可能性がある。
論文 参考訳(メタデータ) (2020-11-08T12:41:24Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。