論文の概要: LG-NuSegHop: A Local-to-Global Self-Supervised Pipeline For Nuclei Instance Segmentation
- arxiv url: http://arxiv.org/abs/2511.04892v1
- Date: Fri, 07 Nov 2025 00:34:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.626907
- Title: LG-NuSegHop: A Local-to-Global Self-Supervised Pipeline For Nuclei Instance Segmentation
- Title(参考訳): LG-NuSegHop: NucleiインスタンスセグメンテーションのためのローカルからGlobalのセルフスーパービジョンパイプライン
- Authors: Vasileios Magoulianitis, Catherine A. Alexander, Jiaxin Yang, C. -C. Jay Kuo,
- Abstract要約: Local-to-Global NuSegHopは、この問題と分子生物学の事前知識に基づいて開発された自己教師パイプラインである。
この研究は、この問題と分子生物学の事前知識に基づいて開発された自己教師型パイプラインであるLocal-to-Global NuSegHopを提案する。
- 参考スコア(独自算出の注目度): 18.579254968484026
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Nuclei segmentation is the cornerstone task in histology image reading, shedding light on the underlying molecular patterns and leading to disease or cancer diagnosis. Yet, it is a laborious task that requires expertise from trained physicians. The large nuclei variability across different organ tissues and acquisition processes challenges the automation of this task. On the other hand, data annotations are expensive to obtain, and thus, Deep Learning (DL) models are challenged to generalize to unseen organs or different domains. This work proposes Local-to-Global NuSegHop (LG-NuSegHop), a self-supervised pipeline developed on prior knowledge of the problem and molecular biology. There are three distinct modules: (1) a set of local processing operations to generate a pseudolabel, (2) NuSegHop a novel data-driven feature extraction model and (3) a set of global operations to post-process the predictions of NuSegHop. Notably, even though the proposed pipeline uses { no manually annotated training data} or domain adaptation, it maintains a good generalization performance on other datasets. Experiments in three publicly available datasets show that our method outperforms other self-supervised and weakly supervised methods while having a competitive standing among fully supervised methods. Remarkably, every module within LG-NuSegHop is transparent and explainable to physicians.
- Abstract(参考訳): 核セグメンテーション(英: Nuclei segmentation)は、組織学的画像読取における基礎的な課題であり、基礎となる分子パターンに光を当て、疾患やがんの診断に繋がる。
しかし、専門医の専門知識を必要とする厳しい作業である。
異なる臓器組織と獲得過程にまたがる大きな核の変動は、このタスクの自動化に挑戦する。
一方、データアノテーションは入手に費用がかかるため、ディープラーニング(DL)モデルでは、見えない臓器や異なるドメインに一般化することが課題となっている。
この研究は、問題と分子生物学の事前知識に基づいて開発された自己教師型パイプラインであるローカル・グローバル・ヌセグホップ(LG-NuSegHop)を提案する。
1)擬似ラベルを生成するためのローカル処理操作のセット,(2)NuSegHopの新しいデータ駆動特徴抽出モデル,(3)NuSegHopの予測を後処理するグローバル操作のセット,の3つの異なるモジュールがある。
特に、提案されたパイプラインは、手動でアノテートされたトレーニングデータやドメイン適応を使用していないが、他のデータセットでの優れた一般化性能を維持している。
3つの公開データセットによる実験により,本手法は他の自己監督的・弱教師付き手法よりも優れ,完全教師付き手法の競争力が高いことが示された。
注目すべきは、LG-NuSegHop内のすべてのモジュールは透明で、医師に説明できることだ。
関連論文リスト
- Pathology-CoT: Learning Visual Chain-of-Thought Agent from Expert Whole Slide Image Diagnosis Behavior [6.583135094946921]
3つの重要なブレークスルーを通じて、この問題に対処するために設計されたフレームワークを紹介します。
まず、AI Session Recorderは、標準的な全スライド画像ビューアとシームレスに統合される。
第2に、ライトウェイトなヒューマン・イン・ザ・ループ・レビューは、行動コマンドのAIドラフトによる合理性を、Pathology-CoTデータセットに変換する。
第三に、我々のフレームワークはエージェントの病理を実践し、ヒトに適応し、アップグレード可能な臨床AIへの道を確立します。
論文 参考訳(メタデータ) (2025-10-06T08:44:04Z) - Imitating Radiological Scrolling: A Global-Local Attention Model for 3D Chest CT Volumes Multi-Label Anomaly Classification [0.0]
3次元CTスキャンのマルチラベル分類は、データの体積特性と検出すべき異常の多様性のために難しい課題である。
畳み込みニューラルネットワーク(CNN)に基づく既存のディープラーニング手法は、長距離依存を効果的に捉えるのに苦労する。
我々は,3次元CTスキャン解析において,放射線技師のスクロール挙動をエミュレートする新しいグローバルアテンションモデルCT-Scrollを提案する。
論文 参考訳(メタデータ) (2025-03-26T15:47:50Z) - AWGUNET: Attention-Aided Wavelet Guided U-Net for Nuclei Segmentation in Histopathology Images [26.333686941245197]
本稿では,U-NetアーキテクチャとDenseNet-121バックボーンを組み合わせたセグメンテーション手法を提案する。
本モデルでは,ウェーブレット誘導チャネルアテンションモジュールを導入し,セル境界のデライン化を促進させる。
その結果,Mouseg と TNBC の2つの病理組織学的データセットを用いて,提案モデルの優位性を実証した。
論文 参考訳(メタデータ) (2024-06-12T17:10:27Z) - Explainable Semantic Medical Image Segmentation with Style [7.074258860680265]
ラベル付きデータのみを限定して一般化可能なセグメンテーションを実現するための,完全教師付き生成フレームワークを提案する。
提案手法は,エンド・ツー・エンドの対角訓練を取り入れたセグメンテーション・タスク駆動型識別器と組み合わせた医用画像スタイルを作成する。
完全セマンティックで公開可能なペルビウスデータセットの実験では、我々の手法は他の最先端の手法よりも、シフトに対してより一般化可能であることが示された。
論文 参考訳(メタデータ) (2023-03-10T04:34:51Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Coalescing Global and Local Information for Procedural Text
Understanding [70.10291759879887]
完全な手続き的理解ソリューションは、入力のローカル・グローバル・ビューとアウトプットのグローバル・ビューの3つの中核的な側面を組み合わせるべきである。
本稿では,エンティティと時間表現を構築する新しいモデルであるCoalescing Global and Local InformationCGを提案する。
一般的な手続き的テキスト理解データセットの実験は、我々のモデルが最先端の結果を得ることを示す。
論文 参考訳(メタデータ) (2022-08-26T19:16:32Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Cross-Modality Brain Tumor Segmentation via Bidirectional
Global-to-Local Unsupervised Domain Adaptation [61.01704175938995]
本論文では,UDAスキームに基づくBiGL(Bidirectional Global-to-Local)適応フレームワークを提案する。
具体的には、脳腫瘍をセグメント化するために、双方向画像合成およびセグメンテーションモジュールを提案する。
提案手法は, 最先端の非教師なし領域適応法を大きなマージンで上回っている。
論文 参考訳(メタデータ) (2021-05-17T10:11:45Z) - Co-Generation and Segmentation for Generalized Surgical Instrument
Segmentation on Unlabelled Data [49.419268399590045]
正確な機器追跡と拡張現実オーバーレイには、ロボット支援手術のための外科用機器セグメンテーションが必要です。
深層学習法では手術器具のセグメンテーションに最先端のパフォーマンスが示されたが,結果はラベル付きデータに依存する。
本稿では,ロボットによる手術を含むさまざまなデータセット上で,これらの手法の限定的な一般化性を実証する。
論文 参考訳(メタデータ) (2021-03-16T18:41:18Z) - PGL: Prior-Guided Local Self-supervised Learning for 3D Medical Image
Segmentation [87.50205728818601]
本稿では,潜在特徴空間における局所的一貫性を学習するPGL(PresideedGuided Local)自己教師モデルを提案する。
我々のPGLモデルは、局所領域の特異な表現を学習し、したがって構造情報を保持できる。
論文 参考訳(メタデータ) (2020-11-25T11:03:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。