論文の概要: Tackling the Problem of Limited Data and Annotations in Semantic
Segmentation
- arxiv url: http://arxiv.org/abs/2007.07357v1
- Date: Tue, 14 Jul 2020 21:11:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 15:10:04.753692
- Title: Tackling the Problem of Limited Data and Annotations in Semantic
Segmentation
- Title(参考訳): 意味セグメンテーションにおける限定データとアノテーションの問題に取り組む
- Authors: Ahmadreza Jeddi
- Abstract要約: 画像セグメンテーションにおける限られたデータアノテーションの問題に対処するために、異なる事前訓練されたモデルとCRFベースの手法を適用した。
この目的のために、RotNet、DeeperCluster、Semi&Weakly Supervised Learning (SWSL)が事前訓練されたモデルをDeepLab-v2ベースラインで転送、微調整する。
その結果、この小さなデータセットでは、事前トレーニングされたResNet50 SWSLモデルを使用することで、ImageNet事前トレーニングされたモデルよりも7.4%良い結果が得られることがわかった。
- 参考スコア(独自算出の注目度): 1.0152838128195467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, the case of semantic segmentation on a small image dataset
(simulated by 1000 randomly selected images from PASCAL VOC 2012), where only
weak supervision signals (scribbles from user interaction) are available is
studied. Especially, to tackle the problem of limited data annotations in image
segmentation, transferring different pre-trained models and CRF based methods
are applied to enhance the segmentation performance. To this end, RotNet,
DeeperCluster, and Semi&Weakly Supervised Learning (SWSL) pre-trained models
are transferred and finetuned in a DeepLab-v2 baseline, and dense CRF is
applied both as a post-processing and loss regularization technique. The
results of my study show that, on this small dataset, using a pre-trained
ResNet50 SWSL model gives results that are 7.4% better than applying an
ImageNet pre-trained model; moreover, for the case of training on the full
PASCAL VOC 2012 training data, this pre-training approach increases the mIoU
results by almost 4%. On the other hand, dense CRF is shown to be very
effective as well, enhancing the results both as a loss regularization
technique in weakly supervised training and as a post-processing tool.
- Abstract(参考訳): 本研究では,小さな画像データセット(PASCAL VOC 2012からランダムに選択された1000個の画像)におけるセマンティックセグメンテーション(セマンティックセグメンテーション)について検討した。
特に,画像セグメンテーションにおける限られたデータアノテーションの問題に対処するため,画像セグメンテーション性能を向上させるために,様々な事前訓練されたモデルとCRFベースの手法を転送する。
この目的のために、RotNet、DeeperCluster、Semi&Weakly Supervised Learning (SWSL)事前訓練されたモデルをDeepLab-v2ベースラインで転送、微調整し、高密度CRFを後処理および損失正規化技術として適用する。
私の研究の結果は、この小さなデータセットでは、プリトレーニングされたresnet50 swslモデルを使用することで、imagenetプリトレーニングモデルよりも7.4%優れた結果が得られることを示しています。
一方、高密度CRFは非常に有効であることが示され、弱い教師付きトレーニングにおける損失正規化技術や後処理ツールとしての結果が高められる。
関連論文リスト
- Enhancing pretraining efficiency for medical image segmentation via transferability metrics [0.0]
医用画像のセグメンテーションタスクでは、ラベル付きトレーニングデータの不足が大きな課題となっている。
本稿では,事前学習したモデルが対象データをいかに頑健に表現できるかを計測する,対照的な学習に基づく新しい伝達可能性指標を提案する。
論文 参考訳(メタデータ) (2024-10-24T12:11:52Z) - Unsupervised Pre-training with Language-Vision Prompts for Low-Data Instance Segmentation [105.23631749213729]
低データ体制における教師なし事前学習のための新しい手法を提案する。
最近成功したプロンプト技術に触発されて,言語ビジョンプロンプトを用いた教師なし事前学習法を導入した。
提案手法は,低データ方式のCNNモデルよりも高速に収束し,性能がよいことを示す。
論文 参考訳(メタデータ) (2024-05-22T06:48:43Z) - A Large-scale Evaluation of Pretraining Paradigms for the Detection of
Defects in Electroluminescence Solar Cell Images [3.729242965449096]
この研究は、太陽電池欠陥検出のための様々な事前学習手法の大規模評価とベンチマークである。
セマンティックセグメンテーション、半教師あり学習、そして2つの自己教師あり技術を用いて教師あり訓練を網羅する。
我々はSCDDのための新しい最先端技術を実現し、特定の事前学習スキームが、表現不足のクラスにおいて優れたパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2024-02-27T15:37:15Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Regularizing Generative Adversarial Networks under Limited Data [88.57330330305535]
本研究は、限られたデータ上で堅牢なGANモデルをトレーニングするための正規化手法を提案する。
正規化損失とLeCam-divergenceと呼ばれるf-divergenceの関連性を示す。
論文 参考訳(メタデータ) (2021-04-07T17:59:06Z) - Contrastive Learning for Label-Efficient Semantic Segmentation [44.10416030868873]
Convolutional Neural Network(CNN)ベースのセマンティックセグメンテーションアプローチは、大量のラベル付きデータを使用して印象的な結果を達成しました。
事実上のクロスエントロピー損失でトレーニングされたディープCNNは、少量のラベル付きデータに容易に適合する。
簡便で効果的な対比学習型トレーニング戦略を提案し、まずはピクセル単位のラベルベースの対比損失を用いてネットワークを前訓練します。
論文 参考訳(メタデータ) (2020-12-13T07:05:39Z) - Efficient Conditional Pre-training for Transfer Learning [71.01129334495553]
本稿では,事前学習データセットから関連するサブセットを選択するための効率的なフィルタリング手法を提案する。
我々は、教師なし設定と教師なし設定の両方において、ImageNetで事前トレーニングを行うことで、我々の技術を検証する。
我々は、サブセットで利用可能なモデルをチューニングし、大規模なデータセットからフィルタリングされたデータセットで事前トレーニングすることで、標準のImageNet事前トレーニングを1~3%改善する。
論文 参考訳(メタデータ) (2020-11-20T06:16:15Z) - SML: Semantic Meta-learning for Few-shot Semantic Segmentation [27.773396307292497]
本稿では,提案するメタ学習フレームワークSemantic Meta-Learningを提案する。
さらに,クラスレベルのセマンティック情報を取り入れるだけでなく,トレーニングデータに含まれる複数の画像から得られる情報を,プロトタイプの計算に有効活用する手法であるリッジ回帰(ridge regression)を提案する。
論文 参考訳(メタデータ) (2020-09-14T18:26:46Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。