論文の概要: Learning Disentangled Stain and Structural Representations for Semi-Supervised Histopathology Segmentation
- arxiv url: http://arxiv.org/abs/2507.03923v2
- Date: Sun, 03 Aug 2025 04:09:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:57.390656
- Title: Learning Disentangled Stain and Structural Representations for Semi-Supervised Histopathology Segmentation
- Title(参考訳): 半スーパービジョンされた病理組織分類のための異形と構造表現の学習
- Authors: Ha-Hieu Pham, Nguyen Lan Vi Vu, Thanh-Huy Nguyen, Ulas Bagci, Min Xu, Trung-Nghia Le, Huy-Hieu Pham,
- Abstract要約: そこで本研究では, 色構造2次構造(CSDS)を用いて, 染色の外観や組織構造の歪んだ表現を学習する手法を提案する。
CSDSは2つの専門的な学生ネットワークで構成されており、ひとつは色変化をモデル化するための染色強化された入力と、もう一つは形態的手がかりを捉えるための構造強化された入力である。
GlaSとCRAGデータセットの実験は、CSDSが低ラベル設定で最先端のパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 9.55376798293006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate gland segmentation in histopathology images is essential for cancer diagnosis and prognosis. However, significant variability in Hematoxylin and Eosin (H&E) staining and tissue morphology, combined with limited annotated data, poses major challenges for automated segmentation. To address this, we propose Color-Structure Dual-Student (CSDS), a novel semi-supervised segmentation framework designed to learn disentangled representations of stain appearance and tissue structure. CSDS comprises two specialized student networks: one trained on stain-augmented inputs to model chromatic variation, and the other on structure-augmented inputs to capture morphological cues. A shared teacher network, updated via Exponential Moving Average (EMA), supervises both students through pseudo-labels. To further improve label reliability, we introduce stain-aware and structure-aware uncertainty estimation modules that adaptively modulate the contribution of each student during training. Experiments on the GlaS and CRAG datasets show that CSDS achieves state-of-the-art performance in low-label settings, with Dice score improvements of up to 1.2% on GlaS and 0.7% on CRAG at 5% labeled data, and 0.7% and 1.4% at 10%. Our code and pre-trained models are available at https://github.com/hieuphamha19/CSDS.
- Abstract(参考訳): 病理組織像における正確な腺分節化は癌診断と予後に不可欠である。
しかし、ヘマトキシリンおよびエオシン(H&E)染色および組織形態学において有意な変動は、注釈付きデータと組み合わせることで、自動セグメンテーションにおいて大きな課題となる。
そこで本研究では,官能評価手法であるCSDS(Color-Structure Dual-Student)を提案する。
CSDSは2つの専門的な学生ネットワークで構成されており、ひとつは色変化をモデル化するための染色強化された入力と、もう一つは形態的手がかりを捉えるための構造強化された入力である。
Exponential moving Average (EMA)によって更新された共有教師ネットワークは、疑似ラベルを通じて両方の生徒を監督する。
ラベルの信頼性をさらに向上するため,学習中の各学生の貢献度を適応的に調節するステンド・アウェアと構造・アウェアの不確実性推定モジュールを導入する。
GlaSとCRAGデータセットの実験によると、CSDSは低ラベル設定で最先端のパフォーマンスを達成しており、DiceスコアはGlaSで1.2%、CRAGで0.7%、ラベル付きデータで0.7%、10%で1.4%向上している。
私たちのコードと事前トレーニングされたモデルは、https://github.com/hieuphamha19/CSDS.orgで公開されています。
関連論文リスト
- A Semantically Enhanced Generative Foundation Model Improves Pathological Image Synthesis [82.01597026329158]
本稿では,組織合成のための相関調整フレームワーク(CRAFTS)について紹介する。
CRAFTSは、生物学的精度を確保するためにセマンティックドリフトを抑制する新しいアライメント機構を組み込んでいる。
本モデルは,30種類の癌にまたがる多彩な病理像を生成する。
論文 参考訳(メタデータ) (2025-12-15T10:22:43Z) - Towards Explainable Skin Cancer Classification: A Dual-Network Attention Model with Lesion Segmentation and Clinical Metadata Fusion [1.503974529275767]
本稿では,皮膚病変の分類を精度と解釈性の両方の観点から向上させる,二重エンコーダアテンションに基づくフレームワークを提案する。
Dual Attention Gates (DAG) と Atrous Space Pyramid Pooling (ASPP) を用いた新しいDeep-UNetアーキテクチャが最初に採用されている。
我々は,HAM10000データセットとISIC 2018と2019の課題に対するアプローチを評価した。
論文 参考訳(メタデータ) (2025-10-20T17:33:51Z) - Self-Supervised Anatomical Consistency Learning for Vision-Grounded Medical Report Generation [61.350584471060756]
医用画像の臨床的に正確な記述を作成することを目的とした医用レポート生成。
本稿では, 自己監督型解剖学的一貫性学習(SS-ACL)を提案し, 生成された報告を対応する解剖学的領域と整合させる。
SS-ACLは、ヒト解剖学の不変のトップダウン包摂構造にインスパイアされた階層的な解剖学的グラフを構築する。
論文 参考訳(メタデータ) (2025-09-30T08:59:06Z) - Enhanced SegNet with Integrated Grad-CAM for Interpretable Retinal Layer Segmentation in OCT Images [0.0]
そこで本研究では,SegNetによる網膜層分割の自動化と解釈のためのディープラーニングフレームワークを提案する。
改良されたプール戦略を含むアーキテクチャ上の革新は、ノイズの多いOCT画像からの特徴抽出を強化する。
Grad-CAMの可視化では、解剖学的に関連のある領域が強調され、セグメンテーションと臨床バイオマーカーが一致した。
論文 参考訳(メタデータ) (2025-09-09T14:31:51Z) - Teacher-Student Model for Detecting and Classifying Mitosis in the MIDOG 2025 Challenge [0.5794811300616634]
有糸分裂の数字を数えるのは病理学者にとって時間集約的であり、サーバ間の変動につながる。
人工知能(AI)は、決定整合性を維持しながら、ミオティックフィギュアを自動的に検出することで解決を約束する。
我々は,ミトーシス検出を画素レベルのセグメンテーションとして定式化し,ミトーシス検出と分類を同時に扱う教師学生モデルを提案する。
論文 参考訳(メタデータ) (2025-09-03T18:08:11Z) - HDC: Hierarchical Distillation for Multi-level Noisy Consistency in Semi-Supervised Fetal Ultrasound Segmentation [2.964206587462833]
HDCと呼ばれる新しい半教師付きセグメンテーションフレームワークが提案されている。
この枠組みは,特徴表現の整合化のための相関誘導損失と,雑音の多い学生学習を安定化するための相互情報損失の2つの目的を持つ階層的蒸留機構を導入している。
論文 参考訳(メタデータ) (2025-04-14T04:52:24Z) - Divide and Conquer: Grounding a Bleeding Areas in Gastrointestinal Image with Two-Stage Model [7.1083241462091165]
本研究では,従来のマルチタスク学習モデルが生み出す課題に対処するために,分類と接地を分離する2段階の枠組みを提案する。
実験結果から,分類精度とセグメンテーション精度が有意に向上した。
論文 参考訳(メタデータ) (2024-12-21T18:18:12Z) - Affinity-Graph-Guided Contractive Learning for Pretext-Free Medical Image Segmentation with Minimal Annotation [55.325956390997]
本稿では,医用画像セグメンテーションのための親和性グラフ誘導半教師付きコントラスト学習フレームワーク(Semi-AGCL)を提案する。
このフレームワークは、まず、ロバストな初期特徴空間を提供する平均パッチエントロピー駆動のパッチ間サンプリング法を設計する。
完全アノテーションセットの10%に過ぎず, 完全注釈付きベースラインの精度にアプローチし, 限界偏差は2.52%に過ぎなかった。
論文 参考訳(メタデータ) (2024-10-14T10:44:47Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - HistoPerm: A Permutation-Based View Generation Approach for Improving
Histopathologic Feature Representation Learning [33.1098457952173]
HistoPermは共同埋め込みアーキテクチャを用いた表現学習のためのビュー生成手法である。
HistoPermは、全スライディングのヒストロジー画像から抽出したパッチの増分ビューを置換し、分類性能を向上させる。
以上の結果から,HistoPermは,精度,F1スコア,AUCの点で,パッチレベルとスライドレベルの分類性能を一貫して向上させることがわかった。
論文 参考訳(メタデータ) (2022-09-13T17:35:08Z) - Dynamic Sub-Cluster-Aware Network for Few-Shot Skin Disease
Classification [31.539129126161978]
本稿では,まれな皮膚疾患の診断における精度を高めるためのサブクラスタ・アウェア・ネットワーク(SCAN)という新しいアプローチを提案する。
SCANの設計を動機づける重要な洞察は、クラス内の皮膚疾患の画像が複数のサブクラスタを示すことが多いという観察である。
数発の皮膚疾患分類のための2つのパブリックデータセットに対する提案手法の評価を行った。
論文 参考訳(メタデータ) (2022-07-03T16:06:04Z) - S5CL: Unifying Fully-Supervised, Self-Supervised, and Semi-Supervised
Learning Through Hierarchical Contrastive Learning [0.22940141855172028]
完全教師付き,自己教師型,半教師型学習のための統合フレームワークであるS5CLを紹介する。
ラベル付き、ラベルなし、擬似ラベル付き画像に対して定義された3つの対照的な損失により、S5CLは距離関係の階層を反映した特徴表現を学習できる。
論文 参考訳(メタデータ) (2022-03-14T17:10:01Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - Lesion Net -- Skin Lesion Segmentation Using Coordinate Convolution and
Deep Residual Units [18.908448254745473]
メラノーマの皮膚病変のセグメント化の精度は、トレーニング、不規則な形状、不明瞭な境界、および異なる皮膚色のためのデータが少ないため、かなり困難な作業です。
提案手法は皮膚病変分節の精度を向上させるのに役立つ。
以上の結果から,提案モデルが既存の皮膚病変の分画法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2020-12-28T14:43:04Z) - A Teacher-Student Framework for Semi-supervised Medical Image
Segmentation From Mixed Supervision [62.4773770041279]
そこで我々は,臓器と病変のセグメンテーションのための教師と学生のスタイルに基づくセミ教師付き学習フレームワークを開発した。
我々は,本モデルがバウンディングボックスの品質に対して堅牢であることを示し,フル教師付き学習手法と比較した性能を実現する。
論文 参考訳(メタデータ) (2020-10-23T07:58:20Z) - 1-D Convlutional Neural Networks for the Analysis of Pupil Size
Variations in Scotopic Conditions [79.71065005161566]
1次元畳み込みニューラルネットワークモデルは、短距離配列の分類のために訓練されている。
モデルは、ホールドアウトテストセット上で、高い平均精度で予測を提供する。
論文 参考訳(メタデータ) (2020-02-06T17:25:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。