論文の概要: A Large-scale Evaluation of Pretraining Paradigms for the Detection of
Defects in Electroluminescence Solar Cell Images
- arxiv url: http://arxiv.org/abs/2402.17611v1
- Date: Tue, 27 Feb 2024 15:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 15:47:05.057695
- Title: A Large-scale Evaluation of Pretraining Paradigms for the Detection of
Defects in Electroluminescence Solar Cell Images
- Title(参考訳): エレクトロルミネッセンス太陽電池画像における欠陥検出のための事前学習パラダイムの大規模評価
- Authors: David Torpey and Lawrence Pratt and Richard Klein
- Abstract要約: この研究は、太陽電池欠陥検出のための様々な事前学習手法の大規模評価とベンチマークである。
セマンティックセグメンテーション、半教師あり学習、そして2つの自己教師あり技術を用いて教師あり訓練を網羅する。
我々はSCDDのための新しい最先端技術を実現し、特定の事前学習スキームが、表現不足のクラスにおいて優れたパフォーマンスをもたらすことを示す。
- 参考スコア(独自算出の注目度): 3.729242965449096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pretraining has been shown to improve performance in many domains, including
semantic segmentation, especially in domains with limited labelled data. In
this work, we perform a large-scale evaluation and benchmarking of various
pretraining methods for Solar Cell Defect Detection (SCDD) in
electroluminescence images, a field with limited labelled datasets. We cover
supervised training with semantic segmentation, semi-supervised learning, and
two self-supervised techniques. We also experiment with both in-distribution
and out-of-distribution (OOD) pretraining and observe how this affects
downstream performance. The results suggest that supervised training on a large
OOD dataset (COCO), self-supervised pretraining on a large OOD dataset
(ImageNet), and semi-supervised pretraining (CCT) all yield statistically
equivalent performance for mean Intersection over Union (mIoU). We achieve a
new state-of-the-art for SCDD and demonstrate that certain pretraining schemes
result in superior performance on underrepresented classes. Additionally, we
provide a large-scale unlabelled EL image dataset of $22000$ images, and a
$642$-image labelled semantic segmentation EL dataset, for further research in
developing self- and semi-supervised training techniques in this domain.
- Abstract(参考訳): プレトレーニングは、セマンティックセグメンテーションを含む多くのドメイン、特にラベル付きデータに制限のあるドメインのパフォーマンスを改善することが示されている。
本研究では,限られたラベル付きデータセットを持つフィールドであるエレクトロルミネッセンス画像において,太陽電池欠陥検出(SCDD)のための様々な事前学習手法の大規模評価とベンチマークを行う。
我々は,教師付き学習を意味セグメンテーション,半教師付き学習,および2つの自己教師付き技法でカバーする。
また,分布内および分布外(OOD)の事前学習実験を行い,それが下流のパフォーマンスに与える影響を観察する。
その結果,大規模なOODデータセット(COCO),大規模なOODデータセット(ImageNet),半教師付き事前トレーニング(CCT)による自己指導型プレトレーニングが,平均的インターセクション(mIoU)に対して統計的に等価な性能を示すことがわかった。
我々はSCDDのための新しい最先端技術を実現し、特定の事前学習スキームが表現不足のクラスにおいて優れたパフォーマンスをもたらすことを示す。
さらに,この領域における自己教師付きおよび半教師付きトレーニング手法の開発に関するさらなる研究のために,22,000ドルの大規模無ラベルel画像データセットと662ドルの画像ラベル付きセマンティックセグメンテーションelデータセットを提供する。
関連論文リスト
- Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - GenCo: An Auxiliary Generator from Contrastive Learning for Enhanced
Few-Shot Learning in Remote Sensing [9.504503675097137]
我々は、バックボーンを事前訓練し、同時に特徴サンプルの変種を探索するジェネレータベースのコントラスト学習フレームワーク(GenCo)を導入する。
微調整では、補助ジェネレータを使用して、特徴空間内の限られたラベル付きデータサンプルを濃縮することができる。
本稿では,2つの重要なリモートセンシングデータセットにおいて,この手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-07-27T03:59:19Z) - In-Domain Self-Supervised Learning Improves Remote Sensing Image Scene
Classification [5.323049242720532]
リモートセンシング画像分類のための有望なアプローチとして,自己教師付き学習が登場している。
そこで本研究では,14の下流データセットにまたがる自己教師型事前学習戦略について検討し,その効果を評価する。
論文 参考訳(メタデータ) (2023-07-04T10:57:52Z) - Self-Supervised Pretraining for 2D Medical Image Segmentation [0.0]
自己教師付き学習は、不正なデータに対して特定のドメインのモデルを事前訓練することで、手動でアノテートされたデータの必要性を下げる手段を提供する。
自然画像と対象領域固有の画像による自己教師付き事前学習は、最も速く、最も安定した下流収束をもたらす。
低データシナリオでは、教師付きImageNet事前トレーニングが最も正確であり、最小限のエラーに近づくためには100以上の注釈付きサンプルが必要である。
論文 参考訳(メタデータ) (2022-09-01T09:25:22Z) - On Efficient Transformer and Image Pre-training for Low-level Vision [74.22436001426517]
プレトレーニングは、ハイレベルコンピュータビジョンにおける多くの最先端の芸術である。
画像事前学習の詳細な研究について述べる。
低レベルのタスクでは,事前トレーニングが極めて異なる役割を担っています。
論文 参考訳(メタデータ) (2021-12-19T15:50:48Z) - Self-Supervised Pre-Training for Transformer-Based Person
Re-Identification [54.55281692768765]
トランスフォーマーに基づく教師付き事前訓練は、人物再識別(ReID)において大きなパフォーマンスを達成する
ImageNetとReIDデータセットのドメインギャップのため、通常、パフォーマンスを高めるために、より大きなトレーニング済みデータセットが必要です。
この研究は、データとモデル構造の観点から、事前トレーニングデータセットとReIDデータセットのギャップを軽減することを目的としている。
論文 参考訳(メタデータ) (2021-11-23T18:59:08Z) - Efficient Conditional Pre-training for Transfer Learning [71.01129334495553]
本稿では,事前学習データセットから関連するサブセットを選択するための効率的なフィルタリング手法を提案する。
我々は、教師なし設定と教師なし設定の両方において、ImageNetで事前トレーニングを行うことで、我々の技術を検証する。
我々は、サブセットで利用可能なモデルをチューニングし、大規模なデータセットからフィルタリングされたデータセットで事前トレーニングすることで、標準のImageNet事前トレーニングを1~3%改善する。
論文 参考訳(メタデータ) (2020-11-20T06:16:15Z) - Neural Semi-supervised Learning for Text Classification Under
Large-Scale Pretraining [51.19885385587916]
我々は、大規模LM事前学習の文脈下で、テキスト分類タスクにおける半教師あり学習の研究を行う。
我々の研究は、大規模事前学習の文脈下でのセミ教師付き学習モデルの振る舞いを理解するための最初のステップである。
論文 参考訳(メタデータ) (2020-11-17T13:39:05Z) - Tackling the Problem of Limited Data and Annotations in Semantic
Segmentation [1.0152838128195467]
画像セグメンテーションにおける限られたデータアノテーションの問題に対処するために、異なる事前訓練されたモデルとCRFベースの手法を適用した。
この目的のために、RotNet、DeeperCluster、Semi&Weakly Supervised Learning (SWSL)が事前訓練されたモデルをDeepLab-v2ベースラインで転送、微調整する。
その結果、この小さなデータセットでは、事前トレーニングされたResNet50 SWSLモデルを使用することで、ImageNet事前トレーニングされたモデルよりも7.4%良い結果が得られることがわかった。
論文 参考訳(メタデータ) (2020-07-14T21:11:11Z) - Cheaper Pre-training Lunch: An Efficient Paradigm for Object Detection [86.0580214485104]
本稿では,オブジェクト検出のための汎用的で効率的な事前学習パラダイムであるMontage事前学習を提案する。
Montage事前トレーニングは、ターゲット検出データセットのみを必要とするが、広く採用されているImageNet事前トレーニングと比較して、計算リソースは1/4しかない。
モンタージュ事前学習の効率と有効性は、MS-COCOデータセットの広範な実験によって検証される。
論文 参考訳(メタデータ) (2020-04-25T16:09:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。