論文の概要: Superpixel Pre-Segmentation of HER2 Slides for Efficient Annotation
- arxiv url: http://arxiv.org/abs/2201.07572v1
- Date: Wed, 19 Jan 2022 12:51:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-20 13:32:01.080493
- Title: Superpixel Pre-Segmentation of HER2 Slides for Efficient Annotation
- Title(参考訳): 効率的なアノテーションのためのHER2スライドのスーパーピクセルプレセグメンテーション
- Authors: Mathias \"Ottl, Jana M\"onius, Christian Marzahl, Matthias R\"ubner,
Carol I. Geppert, Arndt Hartmann, Matthias W. Beckmann, Peter Fasching,
Andreas Maier, Ramona Erber, Katharina Breininger
- Abstract要約: 乳がん診断におけるHER2染色画像の前処理にスーパーピクセルを用いた。
これらの評価は, 効率的な手動精錬のためのプレセグメンテーションのための第1報である。
- 参考スコア(独自算出の注目度): 5.6032514243845455
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised deep learning has shown state-of-the-art performance for medical
image segmentation across different applications, including histopathology and
cancer research; however, the manual annotation of such data is extremely
laborious. In this work, we explore the use of superpixel approaches to compute
a pre-segmentation of HER2 stained images for breast cancer diagnosis that
facilitates faster manual annotation and correction in a second step. Four
methods are compared: Standard Simple Linear Iterative Clustering (SLIC) as a
baseline, a domain adapted SLIC, and superpixels based on feature embeddings of
a pretrained ResNet-50 and a denoising autoencoder. To tackle oversegmentation,
we propose to hierarchically merge superpixels, based on their content in the
respective feature space. When evaluating the approaches on fully manually
annotated images, we observe that the autoencoder-based superpixels achieve a
23% increase in boundary F1 score compared to the baseline SLIC superpixels.
Furthermore, the boundary F1 score increases by 73% when hierarchical
clustering is applied on the adapted SLIC and the autoencoder-based
superpixels. These evaluations show encouraging first results for a
pre-segmentation for efficient manual refinement without the need for an
initial set of annotated training data.
- Abstract(参考訳): 教師付き深層学習は、病理組織学や癌研究など、さまざまな分野の医療画像セグメンテーションにおける最先端のパフォーマンスを示しているが、そのようなデータの手動アノテーションは非常に困難である。
本研究では, 乳がん診断におけるHER2染色画像のプリセグメンテーションに対するスーパーピクセルアプローチの利用について検討し, より高速な手動アノテーションと修正を第2ステップで行う。
ベースラインとしての標準単純線形反復クラスタリング(slic)、プリトレーニングされたresnet-50とデノージングオートエンコーダの機能埋め込みに基づくドメイン適合型slic、スーパーピクセルの4つの方法を比較した。
オーバーセグメンテーションに取り組むために,各特徴空間のコンテンツに基づいて,スーパーピクセルを階層的にマージすることを提案する。
完全手動でアノテートされた画像に対するアプローチを評価する際、オートエンコーダベースのスーパーピクセルは、ベースラインのSLICスーパーピクセルに比べて境界F1スコアが23%増加することが観察された。
さらに、適応SLICとオートエンコーダベースのスーパーピクセルに階層クラスタリングを適用すると、境界F1スコアが73%増加する。
これらの評価は、注釈付きトレーニングデータの初期セットを必要とせず、効率的な手作業による洗練のための事前セグメンテーションの最初の結果を奨励する。
関連論文リスト
- Superpixel Graph Contrastive Clustering with Semantic-Invariant
Augmentations for Hyperspectral Images [64.72242126879503]
ハイパースペクトル画像(HSI)クラスタリングは重要な課題だが難しい課題である。
まず3次元と2次元のハイブリッド畳み込みニューラルネットワークを用いてHSIの高次空間およびスペクトルの特徴を抽出する。
次に,超画素グラフの対比クラスタリングモデルを設計し,識別的超画素表現を学習する。
論文 参考訳(メタデータ) (2024-03-04T07:40:55Z) - Superpixel-based and Spatially-regularized Diffusion Learning for
Unsupervised Hyperspectral Image Clustering [4.643572021927615]
本稿では,新しい教師なしHSIクラスタリングアルゴリズム,スーパーピクセルベースおよび空間正規化拡散学習(S2DL)を提案する。
S2DLは、HSIに符号化された豊富な空間情報を拡散幾何学に基づくクラスタリングに組み込む。
S2DLのパフォーマンスは、公開されている実世界の3つのHSIに関する広範な実験で説明されている。
論文 参考訳(メタデータ) (2023-12-24T09:54:40Z) - Stacked Autoencoder Based Feature Extraction and Superpixel Generation
for Multifrequency PolSAR Image Classification [0.4604003661048266]
我々は多周波偏光合成開口レーダ(PolSAR)画像の分類アルゴリズムを提案する。
所定の画像の各周波数帯域から33の特徴を抽出する。
スーパーピクセルは、隣接するPolSARピクセル間の空間情報を保存するために使用される。
論文 参考訳(メタデータ) (2023-11-06T05:37:03Z) - Self-Supervised One-Shot Learning for Automatic Segmentation of StyleGAN
Images [0.0]
本稿では,StyleGANによって生成された合成画像の自動ワンショットセグメンテーションのためのフレームワークを提案する。
本フレームワークは,自己教師付きコントラストクラスタリングアルゴリズムを用いて合成画像のセグメンテーションを学習する。
また,脅威検出のための合成荷物X線スキャンのフレームワークであるBagGANの実装において,提案したワンショット学習機を用いた結果を示す。
論文 参考訳(メタデータ) (2023-03-10T01:04:27Z) - Interactive Segmentation as Gaussian Process Classification [58.44673380545409]
クリックベースのインタラクティブセグメンテーション(IS)は、ユーザインタラクション下で対象オブジェクトを抽出することを目的としている。
現在のディープラーニング(DL)ベースの手法のほとんどは、主にセマンティックセグメンテーションの一般的なパイプラインに従っている。
本稿では,各画像上でガウス過程(GP)に基づく画素単位のバイナリ分類モデルとしてISタスクを定式化することを提案する。
論文 参考訳(メタデータ) (2023-02-28T14:01:01Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Unsupervised Segmentation of Hyperspectral Remote Sensing Images with
Superpixels [22.92045376407794]
本稿では,ハイパースペクトルリモートセンシング画像セグメンテーションのための教師なし手法を提案する。
この方法は、スペクトル画素情報とともに、予備的なハイパースペクトルスーパーピクセルセグメンテーションを入力とする平均シフトクラスタリングアルゴリズムを利用する。
その結果,提案手法の妥当性を技術状況と比較した。
論文 参考訳(メタデータ) (2022-04-26T13:20:33Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z) - Saliency Enhancement using Superpixel Similarity [77.34726150561087]
Saliency Object Detection (SOD) は画像解析にいくつかの応用がある。
深層学習に基づくSOD法は最も効果的であるが、類似した色を持つ前景の部品を見逃すことがある。
スーパーピクセル類似性(SESS)に対するtextitSaliency Enhancement というポストプロセッシング手法を導入する。
我々は,SESSが5つの画像データセット上での3つのディープラーニングに基づくSOD手法の結果を連続的に,かつ著しく改善できることを実証した。
論文 参考訳(メタデータ) (2021-12-01T17:22:54Z) - Superpixel-guided Discriminative Low-rank Representation of
Hyperspectral Images for Classification [49.32130776974202]
SP-DLRRは2つのモジュール、すなわち分類誘導スーパーピクセルセグメンテーションと識別低ランク表現で構成されている。
3つのベンチマークデータセットの実験結果から,SP-DLRRが最先端手法よりも有意な優位性を示した。
論文 参考訳(メタデータ) (2021-08-25T10:47:26Z) - Image-free single-pixel segmentation [3.3808025405314086]
本稿では,画像のない単一画素分割技術について報告する。
この技術は、構造的照明と単画素検出を組み合わせることで、シーンのセグメンテーション情報を効率的にサンプリングし、多重化する。
この画像自由分割技術は、UAVや無人車両など、様々なリソース制限されたプラットフォームに広く応用できると期待する。
論文 参考訳(メタデータ) (2021-08-24T10:06:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。