論文の概要: Segmentation Style Discovery: Application to Skin Lesion Images
- arxiv url: http://arxiv.org/abs/2408.02787v1
- Date: Mon, 5 Aug 2024 19:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-07 15:48:37.000031
- Title: Segmentation Style Discovery: Application to Skin Lesion Images
- Title(参考訳): セグメンテーションスタイル発見:皮膚病変画像への応用
- Authors: Kumar Abhishek, Jeremy Kawahara, Ghassan Hamarneh,
- Abstract要約: StyleSegは、画像とマスクのペアのコーパスから可塑性、多様性、意味的に一貫性のあるセグメンテーションスタイルを学ぶセグメンテーション手法である。
StyleSegは、4つの公開スキン病変セグメンテーション(SLS)データセットの競合メソッドを一貫して上回っている。
- 参考スコア(独自算出の注目度): 17.230335345573486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variability in medical image segmentation, arising from annotator preferences, expertise, and their choice of tools, has been well documented. While the majority of multi-annotator segmentation approaches focus on modeling annotator-specific preferences, they require annotator-segmentation correspondence. In this work, we introduce the problem of segmentation style discovery, and propose StyleSeg, a segmentation method that learns plausible, diverse, and semantically consistent segmentation styles from a corpus of image-mask pairs without any knowledge of annotator correspondence. StyleSeg consistently outperforms competing methods on four publicly available skin lesion segmentation (SLS) datasets. We also curate ISIC-MultiAnnot, the largest multi-annotator SLS dataset with annotator correspondence, and our results show a strong alignment, using our newly proposed measure AS2, between the predicted styles and annotator preferences. The code and the dataset are available at https://github.com/sfu-mial/StyleSeg.
- Abstract(参考訳): 医用画像のセグメンテーションの多様性は、注釈の好みや専門知識、ツールの選択から生じるものであり、十分に文書化されている。
マルチアノテータセグメンテーションのアプローチの大半は、アノテータ固有の嗜好をモデル化することに焦点を当てているが、アノテータセグメンテーション対応が必要である。
本研究では,セグメンテーションスタイル発見の問題を紹介し,アノテータ対応の知識のないイメージマスク対のコーパスから,可塑性,多様性,意味的に一貫性のあるセグメンテーションスタイルを学習するセグメンテーション手法であるStyleSegを提案する。
StyleSegは、4つの公開スキン病変セグメンテーション(SLS)データセットの競合メソッドを一貫して上回っている。
また,アノテータ対応を持つ最大マルチアノテータSLSデータセットであるISIC-MultiAnnotをキュレートした。
コードとデータセットはhttps://github.com/sfu-mial/StyleSegで公開されている。
関連論文リスト
- MatchSeg: Towards Better Segmentation via Reference Image Matching [5.55078598520531]
ほとんどショットラーニングは、サポートセットとして知られる小さなラベル付きデータセットを使用して、新しいラベル付きイメージの予測ラベルをガイドすることで、注釈付きデータの必要性を克服することを目的としている。
このパラダイムに着想を得たMatchSegは,戦略的基準画像マッチングによる医用画像のセグメンテーションを強化する新しいフレームワークである。
論文 参考訳(メタデータ) (2024-03-23T18:04:58Z) - Segment Everything Everywhere All at Once [124.90835636901096]
画像中のすべてのものを同時にセグメント化するための,迅速かつインタラクティブなモデルであるSEEMを提案する。
そこで本研究では,あらゆるタイプのセグメンテーションタスクに対して,多様なプロンプトを可能にする新しい復号化機構を提案する。
多様なセグメンテーションタスクにおけるSEEMの有効性を検証するための総合的な実証的研究を行った。
論文 参考訳(メタデータ) (2023-04-13T17:59:40Z) - Zero-guidance Segmentation Using Zero Segment Labels [16.76478193075447]
CLIPとDINOを用いた新規なゼロ誘導分割問題を提案する。
一般的な考え方は、まずイメージを小さなオーバーセグメントに分割し、それらをCLIPの視覚言語空間にエンコードし、テキストラベルに変換し、意味論的に類似したセグメントをまとめることである。
私たちの主な貢献は、CLIP内のアテンション層を分析することによって、2つのコンテキストのバランスをとる新しいアテンションマスキング技術です。
論文 参考訳(メタデータ) (2023-03-23T16:15:07Z) - Scaling up Multi-domain Semantic Segmentation with Sentence Embeddings [81.09026586111811]
ゼロショット設定に適用した場合、最先端の教師付き性能を実現するセマンティックセマンティックセマンティクスへのアプローチを提案する。
これは各クラスラベルを、クラスを記述する短い段落のベクトル値の埋め込みに置き換えることによって達成される。
結果として得られた200万以上の画像の統合セマンティックセグメンテーションデータセットは、7つのベンチマークデータセット上の最先端の教師付きメソッドと同等のパフォーマンスを達成するモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2022-02-04T07:19:09Z) - POPCORN: Progressive Pseudo-labeling with Consistency Regularization and
Neighboring [3.4253416336476246]
半教師付き学習(SSL)では、ラベルのないデータを使用して、画像の不足と、未確認領域へのメソッドの一般化の欠如を補う。
画像分割のための整合正則化と擬似ラベル化を組み合わせた新しい手法POPCORNを提案する。
論文 参考訳(メタデータ) (2021-09-13T23:36:36Z) - Improving Semi-Supervised and Domain-Adaptive Semantic Segmentation with
Self-Supervised Depth Estimation [94.16816278191477]
本稿では,セミアダプティブなセマンティックセマンティックセマンティックセグメンテーションのためのフレームワークを提案する。
ラベルのない画像シーケンスでのみ訓練された自己教師付き単眼深度推定によって強化される。
提案したモデルをCityscapesデータセット上で検証する。
論文 参考訳(メタデータ) (2021-08-28T01:33:38Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - StyleMeUp: Towards Style-Agnostic Sketch-Based Image Retrieval [119.03470556503942]
クロスモーダルマッチング問題は通常、写真とスケッチのモダリティ間で共有されるセマンティックコンテンツを保存する共同埋め込み空間を学習することによって解決される。
効果的なモデルには、このスタイルの多様性を明確に説明する必要がある。
我々のモデルは、モデム間で共有されるセマンティックコンテンツだけでなく、目に見えないユーザースタイルにも適応できるので、モデルは真に不可知的です。
論文 参考訳(メタデータ) (2021-03-29T15:44:19Z) - Reviving Iterative Training with Mask Guidance for Interactive
Segmentation [8.271859911016719]
クリックに基づくインタラクティブセグメンテーションに関する最近の研究は、様々な推論時間最適化スキームを用いて最先端の結果を示している。
従来のステップのセグメンテーションマスクを用いた,クリックベースのインタラクティブセグメンテーションのための簡単なフィードフォワードモデルを提案する。
COCOとLVISの組み合わせで訓練されたモデルと、多様で高品質のアノテーションは、既存のすべてのモデルよりも優れたパフォーマンスを示しています。
論文 参考訳(メタデータ) (2021-02-12T15:44:31Z) - Deep Variational Instance Segmentation [7.334808870313923]
State-of-the-artアルゴリズムは、しばしば2つの別々のステージを使用し、最初の1つはオブジェクトの提案を生成し、もう1つは境界を認識して修正する。
完全畳み込みネットワーク(FCN)を直接利用して,インスタンスラベルを予測する新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-22T17:57:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。