論文の概要: Y-net: Biomedical Image Segmentation and Clustering
- arxiv url: http://arxiv.org/abs/2004.05698v2
- Date: Wed, 27 May 2020 02:08:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:23:24.204237
- Title: Y-net: Biomedical Image Segmentation and Clustering
- Title(参考訳): Y-net: バイオメディカルイメージセグメンテーションとクラスタリング
- Authors: Sharmin Pathan, Anant Tripathi
- Abstract要約: 医用画像解析のための画像分割を伴う深層クラスタリングアーキテクチャを提案する。
Kmeansクラスタリングを用いたディープクラスタリングはクラスタリングブランチで行われ、セグメンテーションには軽量モデルが使用される。
提案したアーキテクチャは、データセットが大きくなるにつれて非常にコストがかかるため、早期診断を提供し、ラベル付けに対する人間の介入を減らすことができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a deep clustering architecture alongside image segmentation for
medical image analysis. The main idea is based on unsupervised learning to
cluster images on severity of the disease in the subject's sample, and this
image is then segmented to highlight and outline regions of interest. We start
with training an autoencoder on the images for segmentation. The encoder part
from the autoencoder branches out to a clustering node and segmentation node.
Deep clustering using Kmeans clustering is performed at the clustering branch
and a lightweight model is used for segmentation. Each of the branches use
extracted features from the autoencoder. We demonstrate our results on ISIC
2018 Skin Lesion Analysis Towards Melanoma Detection and Cityscapes datasets
for segmentation and clustering. The proposed architecture beats UNet and
DeepLab results on the two datasets, and has less than half the number of
parameters. We use the deep clustering branch for clustering images into four
clusters. Our approach can be applied to work with high complexity datasets of
medical imaging for analyzing survival prediction for severe diseases or
customizing treatment based on how far the disease has propagated. Clustering
patients can help understand how binning should be done on real valued features
to reduce feature sparsity and improve accuracy on classification tasks. The
proposed architecture can provide an early diagnosis and reduce human
intervention on labeling as it can become quite costly as the datasets grow
larger. The main idea is to propose a one shot approach to segmentation with
deep clustering.
- Abstract(参考訳): 医用画像解析のための画像分割を伴う深層クラスタリングアーキテクチャを提案する。
主なアイデアは、被験者のサンプルにある疾患の重症度に関するイメージを教師なしの学習で収集し、このイメージを分割して関心のある領域をハイライト・アウトラインする。
まず、画像のセグメンテーションのためのオートエンコーダのトレーニングから始める。
オートエンコーダからのエンコーダ部は、クラスタリングノードとセグメンテーションノードに分岐する。
kmeansクラスタリングを用いたディープクラスタリングはクラスタリングブランチで行われ、セグメンテーションには軽量モデルが使用される。
各ブランチはautoencoderから抽出された機能を使用する。
我々はISIC 2018 Skin Lesion Analysis towardss Melanoma Detection and Cityscapes datasets for segmentation and clusteringでこの結果を示した。
提案されたアーキテクチャは、2つのデータセットでUNetとDeepLabの結果を上回り、パラメータの数は半分以下である。
イメージを4つのクラスタにクラスタリングするために、deep clusteringブランチを使用します。
医療画像の複雑なデータセットを用いて,重症疾患の生存予測を解析したり,疾患の進展状況に基づいて治療をカスタマイズしたりすることができる。
クラスタリングの患者は、実際の価値ある機能に対して、どのようにバイナリを行うべきかを理解するのに役立つ。
提案されたアーキテクチャは、データセットが大きくなるとかなりコストがかかるため、早期診断を提供し、ラベル付けへの人間の介入を減らすことができる。
主なアイデアは、ディープクラスタリングによるセグメンテーションへのワンショットアプローチを提案することである。
関連論文リスト
- Deep Structure and Attention Aware Subspace Clustering [29.967881186297582]
本稿では,新しいサブスペースクラスタリング(DSASC)を提案する。
視覚変換器を用いて特徴を抽出し,抽出した特徴を2つの部分,構造特徴,内容特徴に分割する。
我々の手法は最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2023-12-25T01:19:47Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Dink-Net: Neural Clustering on Large Graphs [59.10189693120368]
ディープグラフクラスタリング法 (Dink-Net) は, 拡張と縮小という概念を用いて提案される。
ノードを識別することにより、拡張によって劣化しても、表現は自己教師された方法で学習される。
クラスタリング分布は、提案したクラスタ拡張損失とクラスタ縮小損失を最小化することにより最適化される。
ランナアップと比較して、Dink-Net 9.62%は1100万ノードと16億エッジを持つogbn-papers100MデータセットでNMIの改善を実現している。
論文 参考訳(メタデータ) (2023-05-28T15:33:24Z) - Image as Set of Points [60.30495338399321]
コンテキストクラスタ(CoC)は、イメージを非組織的なポイントの集合と見なし、単純化されたクラスタリングアルゴリズムによって特徴を抽出する。
われわれのCoCは畳み込みと無注意で、空間的相互作用のためのクラスタリングアルゴリズムにのみ依存している。
論文 参考訳(メタデータ) (2023-03-02T18:56:39Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - Deep embedded clustering algorithm for clustering PACS repositories [0.0]
我々は、ピクセルデータのみを用いた医用画像の完全教師なしクラスタリングの問題に取り組む。
私たちは3万枚の画像でモデルをトレーニングし、8000枚の画像からなる別のテストセットを使ってそれらをテストします。
論文 参考訳(メタデータ) (2022-06-24T05:57:49Z) - A Spatial Guided Self-supervised Clustering Network for Medical Image
Segmentation [16.448375091671004]
医用画像分割のための空間ガイド型自己監視クラスタリングネットワーク(SGSCN)を提案する。
単一の画像から、各ピクセルの特徴表現とクラスタリングの割り当てをエンドツーエンドで反復的に学習する。
本手法を2つの公開医用画像データセット上で評価し,従来の自己監督型クラスタリング法と比較した。
論文 参考訳(メタデータ) (2021-07-11T00:40:40Z) - Scalable Hierarchical Agglomerative Clustering [65.66407726145619]
既存のスケーラブルな階層的クラスタリング手法は、スピードの質を犠牲にする。
我々は、品質を犠牲にせず、数十億のデータポイントまでスケールする、スケーラブルで集約的な階層的クラスタリング法を提案する。
論文 参考訳(メタデータ) (2020-10-22T15:58:35Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。