論文の概要: Robust Trust Region for Weakly Supervised Segmentation
- arxiv url: http://arxiv.org/abs/2104.01948v1
- Date: Mon, 5 Apr 2021 15:11:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-06 14:32:02.502470
- Title: Robust Trust Region for Weakly Supervised Segmentation
- Title(参考訳): 弱監視セグメンテーションのためのロバスト信頼領域
- Authors: Dmitrii Marin and Yuri Boykov
- Abstract要約: 最新の結果を改善する定期的な損失のための新しい堅牢な信頼地域アプローチを提案します。
我々のアプローチは古典的連鎖則の高次一般化と見なすことができる。
- 参考スコア(独自算出の注目度): 18.721108305669
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Acquisition of training data for the standard semantic segmentation is
expensive if requiring that each pixel is labeled. Yet, current methods
significantly deteriorate in weakly supervised settings, e.g. where a fraction
of pixels is labeled or when only image-level tags are available. It has been
shown that regularized losses - originally developed for unsupervised low-level
segmentation and representing geometric priors on pixel labels - can
considerably improve the quality of weakly supervised training. However, many
common priors require optimization stronger than gradient descent. Thus, such
regularizers have limited applicability in deep learning. We propose a new
robust trust region approach for regularized losses improving the
state-of-the-art results. Our approach can be seen as a higher-order
generalization of the classic chain rule. It allows neural network optimization
to use strong low-level solvers for the corresponding regularizers, including
discrete ones.
- Abstract(参考訳): 各ピクセルにラベルを付ける必要がある場合、標準的なセマンティックセグメンテーションのためのトレーニングデータの取得はコストがかかる。
しかし、現在の手法は、例えば、弱い教師付き設定で著しく劣化する。
ピクセルのごく一部がラベル付けされている場合や、画像レベルのタグしか利用できない場合です。
正規化損失(元々は教師なし低レベルセグメンテーションのために開発され、ピクセルラベル上の幾何学的事前表現)は、弱い教師付きトレーニングの品質を大幅に改善できることが示されている。
しかし、多くの一般的な事前処理は勾配降下よりも強い最適化を必要とする。
したがって、そのような正規化器は深層学習に適用性に制限がある。
そこで本研究では,定常的損失に対する新たなロバスト信頼領域アプローチを提案する。
我々のアプローチは古典的連鎖則の高次一般化と見なすことができる。
ニューラルネットワークの最適化では、個々のものを含む対応する正規化器に対して強力な低レベルソルバを使用することができる。
関連論文リスト
- Image-level Regression for Uncertainty-aware Retinal Image Segmentation [3.7141182051230914]
我々は,新たな不確実性認識変換(SAUNA)を導入する。
以上の結果から,SAUNA変換の統合とセグメント化損失は,異なるセグメンテーションモデルにおいて大きな性能向上をもたらすことが示唆された。
論文 参考訳(メタデータ) (2024-05-27T04:17:10Z) - Learning Semantic Segmentation with Query Points Supervision on Aerial Images [57.09251327650334]
セマンティックセグメンテーションアルゴリズムを学習するための弱教師付き学習アルゴリズムを提案する。
提案手法は正確なセマンティックセグメンテーションを行い,手作業のアノテーションに要するコストと時間を大幅に削減することで効率を向上する。
論文 参考訳(メタデータ) (2023-09-11T14:32:04Z) - Improving Semi-Supervised Semantic Segmentation with Dual-Level Siamese Structure Network [7.438140196173472]
画素単位のコントラスト学習のための二重レベルシームス構造ネットワーク(DSSN)を提案する。
弱強監督のための新しいクラス認識型擬似ラベル選択戦略を導入する。
提案手法は,2つのデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2023-07-26T03:30:28Z) - Dynamic Feature Regularized Loss for Weakly Supervised Semantic
Segmentation [37.43674181562307]
動的に更新される浅度と深度の両方の機能を利用する新たな正規化損失を提案する。
提案手法は,新しい最先端性能を実現し,他の手法よりも6%以上のmIoU増加率で優れたマージンを達成している。
論文 参考訳(メタデータ) (2021-08-03T05:11:00Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z) - A Simple Baseline for Semi-supervised Semantic Segmentation with Strong
Data Augmentation [74.8791451327354]
セマンティックセグメンテーションのためのシンプルで効果的な半教師付き学習フレームワークを提案する。
単純な設計とトレーニングのテクニックのセットは、半教師付きセマンティックセグメンテーションの性能を大幅に向上させることができる。
本手法は,Cityscapes と Pascal VOC データセットの半教師付き設定において,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2021-04-15T06:01:39Z) - Dissecting Supervised Constrastive Learning [24.984074794337157]
高容量エンコーダで構成された線形マップのソフトマックススコアよりもクロスエントロピーを最小化することは、教師付き学習タスクでニューラルネットワークを訓練するための最も一般的な選択肢である。
コントラスト目的の教師付き変種を通して等しく(あるいはそれ以上)識別表現を得るために、エンコーダを直接最適化することができることを示す。
論文 参考訳(メタデータ) (2021-02-17T15:22:38Z) - Pixel-Level Cycle Association: A New Perspective for Domain Adaptive
Semantic Segmentation [169.82760468633236]
本稿では,ソースとターゲットの画素ペア間の画素レベルサイクルの関連性を構築することを提案する。
我々の手法は1段階のエンドツーエンドで訓練でき、追加のパラメータは導入しない。
論文 参考訳(メタデータ) (2020-10-31T00:11:36Z) - Gradient Centralization: A New Optimization Technique for Deep Neural
Networks [74.935141515523]
勾配集中(GC)は、勾配ベクトルをゼロ平均とする集中化によって、勾配を直接操作する。
GCは、制約された損失関数を持つ射影勾配降下法とみなすことができる。
GCは実装が非常に簡単で、1行のコードだけで既存のグラデーションベースのDNNに簡単に組み込める。
論文 参考訳(メタデータ) (2020-04-03T10:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。