論文の概要: YoloCurvSeg: You Only Label One Noisy Skeleton for Vessel-style
Curvilinear Structure Segmentation
- arxiv url: http://arxiv.org/abs/2212.05566v1
- Date: Sun, 11 Dec 2022 18:15:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 18:00:16.680547
- Title: YoloCurvSeg: You Only Label One Noisy Skeleton for Vessel-style
Curvilinear Structure Segmentation
- Title(参考訳): YoloCurvSeg: 容器型曲線構造セグメンテーションのためのノイズのみをラベル付けする
- Authors: Li Lin, Linkai Peng, Huaqing He, Pujin Cheng, Jiewei Wu, Kenneth K. Y.
Wong, Xiaoying Tang
- Abstract要約: Wakly-Cur Learning (WSL) は、データアノテーションコストとモデルパフォーマンスの対立を軽減するために提案されている。
YoloCurvSegは4つの公開データセットで評価されている。
YoloCurvSegは、各データセットで完全に教師されたパフォーマンス以上を達成する。
- 参考スコア(独自算出の注目度): 0.9864127278501427
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Weakly-supervised learning (WSL) has been proposed to alleviate the conflict
between data annotation cost and model performance through employing
sparsely-grained (i.e., point-, box-, scribble-wise) supervision and has shown
promising performance, particularly in the image segmentation field. However,
it is still a very challenging problem due to the limited supervision,
especially when only a small number of labeled samples are available.
Additionally, almost all existing WSL segmentation methods are designed for
star-convex structures which are very different from curvilinear structures
such as vessels and nerves. In this paper, we propose a novel sparsely
annotated segmentation framework for curvilinear structures, named YoloCurvSeg,
based on image synthesis. A background generator delivers image backgrounds
that closely match real distributions through inpainting dilated skeletons. The
extracted backgrounds are then combined with randomly emulated curves generated
by a Space Colonization Algorithm-based foreground generator and through a
multilayer patch-wise contrastive learning synthesizer. In this way, a
synthetic dataset with both images and curve segmentation labels is obtained,
at the cost of only one or a few noisy skeleton annotations. Finally, a
segmenter is trained with the generated dataset and possibly an unlabeled
dataset. The proposed YoloCurvSeg is evaluated on four publicly available
datasets (OCTA500, CORN, DRIVE and CHASEDB1) and the results show that
YoloCurvSeg outperforms state-of-the-art WSL segmentation methods by large
margins. With only one noisy skeleton annotation (respectively 0.14%, 0.02%,
1.4%, and 0.65% of the full annotation), YoloCurvSeg achieves more than 97% of
the fully-supervised performance on each dataset. Code and datasets will be
released at https://github.com/llmir/YoloCurvSeg.
- Abstract(参考訳): 弱教師付き学習(weakly supervised learning,wsl)は、粗粒度(point-, box-, scribble-wise)の監督を用いてデータアノテーションコストとモデル性能の衝突を軽減するために提案され、特に画像分割の分野で有望な性能を示している。
しかし、限定的な監督のため、特に少数のラベル付きサンプルしか入手できないため、依然として非常に困難な問題である。
加えて、既存のWSLセグメンテーション手法のほとんど全ては、血管や神経などの曲線構造とは大きく異なる恒星凸構造のために設計されている。
本稿では,画像合成を基盤として,直線構造に対する疎アノテートなセグメンテーションフレームワークであるyolocurvsegを提案する。
背景生成器は、塗布された拡張された骨格を通して実際の分布と密に一致する画像背景を提供する。
抽出した背景は、Space Colonization Algorithmベースの前景生成器とマルチレイヤパッチワイドコントラスト学習シンセサイザによって生成されるランダムなエミュレーション曲線と結合される。
このようにして、画像と曲線セグメンテーションラベルの両方を持つ合成データセットが、1つまたは数個のノイズスケルトンアノテーションのコストで取得される。
最後に、セグメンタは生成されたデータセットとおそらくラベルのないデータセットでトレーニングされる。
提案したYoloCurvSegは4つの公開データセット(OCTA500, CORN, DRIVE, CHASEDB1)で評価され、その結果、YoloCurvSegは最先端のWSLセグメンテーション手法を大きなマージンで上回る結果となった。
ノイズの多いスケルトンアノテーション(0.14%、0.02%、1.4%、0.65%)は、各データセットの完全な教師付きパフォーマンスの97%以上をyolocurvsegが達成している。
コードとデータセットはhttps://github.com/llmir/YoloCurvSegで公開される。
関連論文リスト
- Scribbles for All: Benchmarking Scribble Supervised Segmentation Across Datasets [51.74296438621836]
Scribbles for Allは、スクリブルラベルに基づいて訓練されたセマンティックセグメンテーションのためのラベルおよびトレーニングデータ生成アルゴリズムである。
弱い監督の源泉としてのスクリブルの主な制限は、スクリブルセグメンテーションのための挑戦的なデータセットの欠如である。
Scribbles for Allは、いくつかの人気のあるセグメンテーションデータセットのスクリブルラベルを提供し、密集したアノテーションを持つデータセットのスクリブルラベルを自動的に生成するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-08-22T15:29:08Z) - Enriching Information and Preserving Semantic Consistency in Expanding Curvilinear Object Segmentation Datasets [1.0104586293349587]
カービ線形オブジェクトセグメンテーションは、様々なアプリケーションにおいて重要な役割を果たすが、この領域のデータセットは、しばしば小さなスケールに悩まされる。
本稿では,カービリニアオブジェクトセグメンテーションデータセットを拡張するための新しいアプローチを提案する。
本手法は,複数のテキスト特徴量からカービリニアオブジェクトを生成することによって,合成データの情報性が向上する。
論文 参考訳(メタデータ) (2024-07-11T06:25:26Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - SegViz: A Federated Learning Framework for Medical Image Segmentation
from Distributed Datasets with Different and Incomplete Annotations [3.6704226968275258]
分散医用画像セグメンテーションデータセットから知識を集約する学習フレームワークであるSegVizを開発した。
SegVizは、両方のノードから知識を収集する肝臓と脾臓の両方をセグメント化できるモデルを構築するように訓練された。
以上の結果から,SegVizは臨床的に翻訳可能なマルチタスクセグメンテーションモデルのトレーニングに向けた重要な第一歩であることが示された。
論文 参考訳(メタデータ) (2023-01-17T18:36:57Z) - SemiCurv: Semi-Supervised Curvilinear Structure Segmentation [14.279247299994994]
SemiCurvは、曲線構造セグメンテーションのための半教師付き学習フレームワークである。
半教師付き方法で曲線分割を定式化する際の2つの重要な課題に対処する。
まず、一貫性に基づくSSLのパワーを完全に活用するために、幾何変換を導入する。
第二に、乱れのないデータの従来の平均二乗誤差(MSE)は、予測が崩壊する傾向にある。
論文 参考訳(メタデータ) (2022-05-18T03:52:17Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Scaling Semantic Segmentation Beyond 1K Classes on a Single GPU [87.48110331544885]
既存のセマンティックセグメンテーションモデルのトレーニングとスケールアップのための新しいトレーニング手法を提案する。
我々は、LVISとCOCOアノテーションからブートストラップした1284クラスのデータセットに対するアプローチの明確な利点を示し、DeeplabV3+モデルの3倍のmIoUを実現した。
論文 参考訳(メタデータ) (2020-12-14T13:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。