論文の概要: Soft labelling for semantic segmentation: Bringing coherence to label
down-sampling
- arxiv url: http://arxiv.org/abs/2302.13961v3
- Date: Mon, 19 Feb 2024 07:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 07:24:20.724951
- Title: Soft labelling for semantic segmentation: Bringing coherence to label
down-sampling
- Title(参考訳): セマンティックセグメンテーションのためのソフトラベリング:ラベルダウンサンプリングにコヒーレンスをもたらす
- Authors: Roberto Alcover-Couso, Marcos Escudero-Vinolo, Juan C. SanMiguel and
Jose M. Martinez
- Abstract要約: セマンティックセグメンテーションでは、リソースが限られているため、ダウンサンプリングが一般的に行われる。
本稿では,ソフトラベルによるダウンサンプリングのための新しいフレームワークを提案する。
この提案は、表現されていないセマンティッククラスに対する信頼性の高いアノテーションも生成する。
- 参考スコア(独自算出の注目度): 1.797129499170058
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In semantic segmentation, training data down-sampling is commonly performed
due to limited resources, the need to adapt image size to the model input, or
improve data augmentation. This down-sampling typically employs different
strategies for the image data and the annotated labels. Such discrepancy leads
to mismatches between the down-sampled color and label images. Hence, the
training performance significantly decreases as the down-sampling factor
increases. In this paper, we bring together the down-sampling strategies for
the image data and the training labels. To that aim, we propose a novel
framework for label down-sampling via soft-labeling that better conserves label
information after down-sampling. Therefore, fully aligning soft-labels with
image data to keep the distribution of the sampled pixels. This proposal also
produces reliable annotations for under-represented semantic classes.
Altogether, it allows training competitive models at lower resolutions.
Experiments show that the proposal outperforms other down-sampling strategies.
Moreover, state-of-the-art performance is achieved for reference benchmarks,
but employing significantly less computational resources than foremost
approaches. This proposal enables competitive research for semantic
segmentation under resource constraints.
- Abstract(参考訳): セマンティックセグメンテーションでは、限られたリソース、画像サイズをモデル入力に適応させるか、データ拡張を改善する必要があるため、トレーニングデータダウンサンプリングが一般的である。
このダウンサンプリングは通常、画像データと注釈付きラベルに対して異なる戦略を用いる。
このような不一致は、ダウンサンプルカラーとラベルイメージのミスマッチにつながる。
したがって、ダウンサンプリング係数が増加するとトレーニング性能が著しく低下する。
本稿では,画像データとトレーニングラベルのダウンサンプリング戦略を統合する。
そこで本研究では,ソフトラベルによるラベルダウンサンプリングのための新しいフレームワークを提案する。
したがって、ソフトラベルを画像データと完全に整合させ、サンプル画素の分布を維持する。
この提案はまた、未表現のセマンティクスクラスに対する信頼できるアノテーションも生成する。
また、低解像度で競争モデルを訓練することもできる。
実験によると、この提案は他のダウンサンプリング戦略よりも優れている。
さらに、参照ベンチマークでは最先端のパフォーマンスが達成されるが、最上位のアプローチよりも計算資源が大幅に少ない。
本提案は,資源制約下における意味セグメンテーションの競合研究を可能にする。
関連論文リスト
- Heavy Labels Out! Dataset Distillation with Label Space Lightening [69.67681224137561]
HeLlOは、合成画像から直接合成ラベルをオンラインで生成できる効果的な画像-ラベルプロジェクタを目指している。
ソフトラベルの完全なセットに必要な元のストレージの0.003%しか必要とせず、大規模データセット上での現在の最先端データセット蒸留法と同等のパフォーマンスを達成できることを実証した。
論文 参考訳(メタデータ) (2024-08-15T15:08:58Z) - Towards Efficient and Accurate CT Segmentation via Edge-Preserving Probabilistic Downsampling [2.1465347972460367]
限られたリソースやネットワークトレーニングの迅速化を必要とするイメージやラベルのダウンサンプリングは、小さなオブジェクトと薄いバウンダリの損失につながる。
これにより、セグメンテーションネットワークのイメージを正確に解釈し、詳細なラベルを予測する能力が損なわれ、元の解像度での処理と比較して性能が低下する。
エッジ保存型確率ダウンサンプリング(EPD)という新しい手法を提案する。
ローカルウィンドウ内のクラス不確実性を利用してソフトラベルを生成し、ウィンドウサイズがダウンサンプリング係数を規定する。
論文 参考訳(メタデータ) (2024-04-05T10:01:31Z) - Virtual Category Learning: A Semi-Supervised Learning Method for Dense
Prediction with Extremely Limited Labels [63.16824565919966]
本稿では,ラベルの修正を伴わずに,混乱したサンプルを積極的に使用することを提案する。
仮想カテゴリー(VC)は、モデルの最適化に安全に貢献できるように、各混乱したサンプルに割り当てられる。
私たちの興味深い発見は、密集した視覚タスクにおけるVC学習の利用に注目しています。
論文 参考訳(メタデータ) (2023-12-02T16:23:52Z) - Two-Step Active Learning for Instance Segmentation with Uncertainty and
Diversity Sampling [20.982992381790034]
本研究では,不確実性に基づくサンプリングと多様性に基づくサンプリングを統合したポストホック能動学習アルゴリズムを提案する。
提案アルゴリズムは単純で実装が容易なだけでなく,様々なデータセットに対して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-09-28T03:40:30Z) - Handling Image and Label Resolution Mismatch in Remote Sensing [10.009103959118931]
オーバヘッド画像とグラウンドトルースラベルソースの分解ミスマッチの処理方法を示す。
本稿では,低解像度ラベルを用いて教師される手法を提案する。
本手法は, 領域集約, 逆学習, 自己教師付き事前学習を取り入れ, 詳細な教師付き予測を生成する。
論文 参考訳(メタデータ) (2022-11-28T21:56:07Z) - Category-Adaptive Label Discovery and Noise Rejection for Multi-label
Image Recognition with Partial Positive Labels [78.88007892742438]
部分正ラベル(MLR-PPL)を用いたマルチラベルモデルの訓練が注目されている。
これまでの研究では、未知のラベルを負とみなし、従来のMLRアルゴリズムを採用した。
我々は,MLR-PPLタスクを容易にするために,異なる画像間の意味的相関について検討する。
論文 参考訳(メタデータ) (2022-11-15T02:11:20Z) - AdaWAC: Adaptively Weighted Augmentation Consistency Regularization for
Volumetric Medical Image Segmentation [3.609538870261841]
本稿では,容積医用画像分割のための適応重み付けアルゴリズムを提案する。
AdaWACは、ラベルセンスサンプルを教師付きクロスエントロピー損失とラベルスパースサンプルを整合正則化に割り当てる。
我々は,AdaWACがセグメンテーション性能とサンプル効率を向上させるだけでなく,ラベルのサブポピュレーションシフトに対するロバスト性を向上させることを実証的に実証した。
論文 参考訳(メタデータ) (2022-10-04T20:28:38Z) - An analysis of over-sampling labeled data in semi-supervised learning
with FixMatch [66.34968300128631]
ほとんどの半教師付き学習手法は、ミニバッチを訓練する際にラベルをオーバーサンプルする。
本稿では,この実践が学習と方法を改善するかどうかを考察する。
ラベル付けの有無に関わらず、トレーニングデータから各ミニバッチを均一にサンプリングする別の設定と比較する。
論文 参考訳(メタデータ) (2022-01-03T12:22:26Z) - Learning to Downsample for Segmentation of Ultra-High Resolution Images [6.432524678252553]
空間的に変化するダウンサンプリング戦略とセグメンテーションを併用して学習することで,計算予算に制限のある大きな画像のセグメンテーションにメリットがあることが示される。
本手法は, サンプリング密度を異なる場所に適用することにより, より小さな重要な領域から, より少ない領域からより多くのサンプルを収集する。
2つの公開データセットと1つのローカル高解像度データセットについて、本手法は、より多くの情報を保存するためのサンプリング位置を一貫して学習し、ベースライン法よりもセグメンテーション精度を向上することを示す。
論文 参考訳(メタデータ) (2021-09-22T23:04:59Z) - Region-level Active Learning for Cluttered Scenes [60.93811392293329]
本稿では,従来の画像レベルのアプローチとオブジェクトレベルのアプローチを一般化した領域レベルのアプローチに仮定する新たな戦略を提案する。
その結果,本手法はラベル付けの労力を大幅に削減し,クラス不均衡や散らかったシーンを生かしたリアルなデータに対する希少なオブジェクト検索を改善することが示唆された。
論文 参考訳(メタデータ) (2021-08-20T14:02:38Z) - Semi-supervised Semantic Segmentation with Directional Context-aware
Consistency [66.49995436833667]
我々は、ラベル付きデータの小さなセットに、全くラベル付けされていない画像のより大きなコレクションを提供する半教師付きセグメンテーション問題に焦点をあてる。
好ましいハイレベル表現は、自己認識を失わずにコンテキスト情報をキャプチャするべきである。
我々は,DCロス(Directional Contrastive Loss)を画素対ピクセルの整合性を達成するために提示する。
論文 参考訳(メタデータ) (2021-06-27T03:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。