論文の概要: Beyond pixel-wise supervision for segmentation: A few global shape
descriptors might be surprisingly good!
- arxiv url: http://arxiv.org/abs/2105.00859v1
- Date: Mon, 3 May 2021 13:44:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-04 14:00:24.901332
- Title: Beyond pixel-wise supervision for segmentation: A few global shape
descriptors might be surprisingly good!
- Title(参考訳): ピクセル単位でセグメンテーションを監督する以外に、いくつかのグローバル形状記述子は驚くほど良い!
- Authors: Hoel Kervadec and Houda Bahig and Laurent Letourneau-Guillon and Jose
Dolz and Ismail Ben Ayed
- Abstract要約: ディープセグメンテーションネットワークを訓練するための標準的な損失は、予測されたセグメンテーションのグローバル形状を監督する代わりに、ピクセルの個別の分類と見なすことができる。
本研究では,深層ネットワークの学習におけるセグメンテーション損失として使用する場合,グローバル幾何形状記述子の有効性について検討する。
- 参考スコア(独自算出の注目度): 16.293620755563854
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Standard losses for training deep segmentation networks could be seen as
individual classifications of pixels, instead of supervising the global shape
of the predicted segmentations. While effective, they require exact knowledge
of the label of each pixel in an image.
This study investigates how effective global geometric shape descriptors
could be, when used on their own as segmentation losses for training deep
networks. Not only interesting theoretically, there exist deeper motivations to
posing segmentation problems as a reconstruction of shape descriptors:
Annotations to obtain approximations of low-order shape moments could be much
less cumbersome than their full-mask counterparts, and anatomical priors could
be readily encoded into invariant shape descriptions, which might alleviate the
annotation burden. Also, and most importantly, we hypothesize that, given a
task, certain shape descriptions might be invariant across image acquisition
protocols/modalities and subject populations, which might open interesting
research avenues for generalization in medical image segmentation.
We introduce and formulate a few shape descriptors in the context of deep
segmentation, and evaluate their potential as standalone losses on two
different challenging tasks. Inspired by recent works in constrained
optimization for deep networks, we propose a way to use those descriptors to
supervise segmentation, without any pixel-level label. Very surprisingly, as
little as 4 descriptors values per class can approach the performance of a
segmentation mask with 65k individual discrete labels. We also found that shape
descriptors can be a valid way to encode anatomical priors about the task,
enabling to leverage expert knowledge without additional annotations. Our
implementation is publicly available and can be easily extended to other tasks
and descriptors: https://github.com/hkervadec/shape_descriptors
- Abstract(参考訳): ディープセグメンテーションネットワークを訓練するための標準的な損失は、予測されたセグメンテーションのグローバル形状を監督する代わりに、ピクセルの個別の分類と見なすことができる。
有効ではあるが、画像の各ピクセルのラベルの正確な知識が必要である。
本研究では,深層ネットワークの学習におけるセグメンテーション損失として使用する場合,グローバル幾何形状記述子の有効性について検討する。
低次形状のモーメントを近似するアノテーションは、フルマスクのモーメントよりもはるかに扱いにくい可能性があり、解剖学的な先行は容易に不変形状の記述にエンコードでき、アノテーションの負担を軽減することができる。
また, 課題が与えられた場合, 画像取得プロトコルやモダリティ, 被写体集団間で, 特定の形状記述が不変であり, 医用画像セグメンテーションの一般化に向けた興味深い研究の道を開く可能性がある。
深部セグメンテーションの文脈でいくつかの形状記述子を導入・定式化し、2つの異なる課題における独立的な損失として評価する。
近年のディープネットワークの制約付き最適化に触発されて,ピクセルレベルのラベルを使わずにセグメント化を監督する手法を提案する。
驚くべきことに、クラス毎のディスクリプタ値は、65k個の個別ラベルを持つセグメンテーションマスクのパフォーマンスに近づくことができます。
また、形状記述子はタスクに関する解剖学的事前情報をエンコードする有効な方法であり、追加のアノテーションなしで専門家の知識を活用できることがわかった。
私たちの実装は公開されており、他のタスクやディスクリプタにも簡単に拡張できます。
関連論文リスト
- Towards Open-Vocabulary Semantic Segmentation Without Semantic Labels [53.8817160001038]
画素レベルの理解にCLIP画像エンコーダを適用する新しい手法であるPixelCLIPを提案する。
セマンティックラベルを使わずにマスクを活用するという課題に対処するため,オンラインクラスタリングアルゴリズムを考案した。
PixelCLIPはCLIPよりも大幅にパフォーマンスが向上し、キャプション管理手法に比べて競合性が向上した。
論文 参考訳(メタデータ) (2024-09-30T01:13:03Z) - A Point-Neighborhood Learning Framework for Nasal Endoscope Image Segmentation [43.0260204534598]
本稿では,PNL(Point-Neighborhood Learning)フレームワークという,弱い半教師付き手法を提案する。
注釈付き点を囲む画素の先行をマイニングするために、単点アノテーションを点近傍と呼ばれる円形領域に変換する。
本手法はセグメンテーションネットワークの構造を変えることなく性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-30T13:25:25Z) - Unsupervised Universal Image Segmentation [59.0383635597103]
本稿では,Unsupervised Universal Model (U2Seg) を提案する。
U2Segは、自己教師付きモデルを利用して、これらのセグメンテーションタスクの擬似意味ラベルを生成する。
次に、これらの擬似意味ラベル上でモデルを自己学習し、かなりの性能向上をもたらす。
論文 参考訳(メタデータ) (2023-12-28T18:59:04Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Learning to segment from object sizes [0.0]
本稿では,数画素の注釈付き画像と既知のオブジェクトサイズを持つ多数の画像のデータセットから,ディープセグメンテーションネットワークをトレーニングするアルゴリズムを提案する。
このアルゴリズムは、勾配をサンプリングし、標準のバックプロパゲーションアルゴリズムを使用することで、オブジェクトサイズに対して定義された離散的な(微分不可能な)損失関数を最小化する。
論文 参考訳(メタデータ) (2022-07-01T09:34:44Z) - Segmenter: Transformer for Semantic Segmentation [79.9887988699159]
セマンティックセグメンテーションのためのトランスフォーマーモデルであるSegmenterを紹介します。
最近のViT(Vision Transformer)上に構築し,セマンティックセグメンテーションに拡張する。
これは、挑戦的なADE20Kデータセット上でのアートの状態を上回り、Pascal ContextとCityscapesでオンパーを実行する。
論文 参考訳(メタデータ) (2021-05-12T13:01:44Z) - Sparse Object-level Supervision for Instance Segmentation with Pixel
Embeddings [4.038011160363972]
ほとんどの最先端のインスタンスセグメンテーションメソッドは、密接な注釈付き画像でトレーニングする必要があります。
非空間埋め込みに基づく提案フリーセグメンテーション手法を提案する。
本研究では, 異なる顕微鏡モードにおける2次元および3次元分割問題の解法について検討した。
論文 参考訳(メタデータ) (2021-03-26T16:36:56Z) - Semantically Meaningful Class Prototype Learning for One-Shot Image
Semantic Segmentation [58.96902899546075]
ワンショットセマンティックイメージセグメンテーションは、1つの注釈付きイメージで新しいクラスのオブジェクト領域を分割することを目的としている。
最近の研究では、テスト時に予想される状況を模倣するために、エピソディクストレーニング戦略を採用している。
エピソードトレーニングにおいて,マルチクラスラベル情報を活用することを提案する。
ネットワークが各カテゴリに対してより意味のある機能を生成するように促すだろう。
論文 参考訳(メタデータ) (2021-02-22T12:07:35Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Shape-aware Semi-supervised 3D Semantic Segmentation for Medical Images [24.216869988183092]
本稿では,豊富なラベルのないデータを活用し,セグメント化出力に幾何学的形状制約を課す,形状認識型半教師付きセグメンテーション戦略を提案する。
物体表面のセマンティックセグメンテーションと符号付き距離マップDMを共同で予測するマルチタスクディープネットワークを開発した。
実験の結果,提案手法は形状推定を改良し,最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-21T11:44:52Z) - Few-Shot Semantic Segmentation Augmented with Image-Level Weak
Annotations [23.02986307143718]
ショットセマンティックセグメンテーションの最近の進歩は、わずか数ピクセルレベルの注釈付き例によってこの問題に対処している。
私たちのキーとなるアイデアは、イメージレベルのラベル付きデータから知識を融合させることで、クラスのより優れたプロトタイプ表現を学ぶことです。
画像レベルのアノテーションを統合することで,距離空間におけるクラスプロトタイプ表現を学習するための新しいフレームワークPAIAを提案する。
論文 参考訳(メタデータ) (2020-07-03T04:58:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。