論文の概要: Active learning with MaskAL reduces annotation effort for training Mask
R-CNN
- arxiv url: http://arxiv.org/abs/2112.06586v1
- Date: Mon, 13 Dec 2021 12:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-14 23:04:05.852760
- Title: Active learning with MaskAL reduces annotation effort for training Mask
R-CNN
- Title(参考訳): Maskalによるアクティブラーニングは、Mask R-CNNのトレーニングのためのアノテーションの労力を減らす
- Authors: Pieter M. Blok, Gert Kootstra, Hakim Elchaoui Elghor, Boubacar Diallo,
Frits K. van Evert, Eldert J. van Henten
- Abstract要約: 畳み込みニューラルネットワーク(CNN)の一般化性能は、トレーニング画像の量、品質、多様性に影響される。
我々の研究の目的は、CNNのパフォーマンスを維持しながらトレーニングするために必要な注釈付き画像の数を減らすことであった。
そこで我々は,マスク領域をベースとしたCNN(Mask R-CNN)の能動的学習手法を開発し,その手法をMaskALと名付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The generalisation performance of a convolutional neural network (CNN) is
influenced by the quantity, quality, and variety of the training images.
Training images must be annotated, and this is time consuming and expensive.
The goal of our work was to reduce the number of annotated images needed to
train a CNN while maintaining its performance. We hypothesised that the
performance of a CNN can be improved faster by ensuring that the set of
training images contains a large fraction of hard-to-classify images. The
objective of our study was to test this hypothesis with an active learning
method that can automatically select the hard-to-classify images. We developed
an active learning method for Mask Region-based CNN (Mask R-CNN) and named this
method MaskAL. MaskAL involved the iterative training of Mask R-CNN, after
which the trained model was used to select a set of unlabelled images about
which the model was uncertain. The selected images were then annotated and used
to retrain Mask R-CNN, and this was repeated for a number of sampling
iterations. In our study, Mask R-CNN was trained on 2500 broccoli images that
were selected through 12 sampling iterations by either MaskAL or a random
sampling method from a training set of 14,000 broccoli images. For all sampling
iterations, MaskAL performed significantly better than the random sampling.
Furthermore, MaskAL had the same performance after sampling 900 images as the
random sampling had after 2300 images. Compared to a Mask R-CNN model that was
trained on the entire training set (14,000 images), MaskAL achieved 93.9% of
its performance with 17.9% of its training data. The random sampling achieved
81.9% of its performance with 16.4% of its training data. We conclude that by
using MaskAL, the annotation effort can be reduced for training Mask R-CNN on a
broccoli dataset. Our software is available on
https://github.com/pieterblok/maskal.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)の一般化性能は、トレーニング画像の量、品質、多様性に影響される。
トレーニング用のイメージには注釈を付けなければならない。
我々の研究の目的は、CNNのパフォーマンスを維持しながらトレーニングするために必要な注釈付き画像の数を減らすことであった。
トレーニング画像のセットに分類が難しい画像が多数含まれていることを保証することにより,cnnの性能を高速に改善できると仮定した。
本研究の目的は,この仮説を能動的学習法で検証し,画像の自動分類を行うことである。
マスク領域に基づくcnn(mask r-cnn)のアクティブ学習法を開発し,この手法をmaskalと名付けた。
Maskalは、Mask R-CNNの反復訓練に携わり、その後、トレーニングされたモデルを使用して、モデルが不確実な一連の未ラベル画像を選択する。
選択された画像はアノテートされ、マスクr-cnnの再訓練に使用され、多くのサンプリングを繰り返した。
本研究では,Mask R-CNNを2500ブロッコリー画像を用いて訓練し,MaskALまたは14,000ブロッコリー画像を用いたランダムサンプリング法を用いて12回のサンプリングを行った。
すべてのサンプリングイテレーションに対して、MaskALはランダムサンプリングよりも大幅にパフォーマンスが向上した。
さらに、MaskALは2300枚の画像のランダムサンプリングと900枚の画像のサンプリング後に同じ性能を示した。
トレーニングセット全体(14,000枚)でトレーニングされたMask R-CNNモデルと比較して、MaskALはトレーニングデータの17.9%で93.9%のパフォーマンスを達成した。
ランダムサンプリングはその性能の81.9%、トレーニングデータの16.4%を達成した。
結論として,マスクを用いることで,ブロッコリーデータセット上でマスクr-cnnをトレーニングするためのアノテーションの労力を削減できる。
私たちのソフトウェアはhttps://github.com/pieterblok/maskalで利用可能です。
関連論文リスト
- A Hybrid Spiking-Convolutional Neural Network Approach for Advancing Machine Learning Models [6.528272856589831]
本稿では,新しいハイブリッド・スパイキング・畳み込みニューラルネットワーク(SC-NN)モデルを提案する。
我々のアプローチは、イベントベースの計算や時間処理などのSNNのユニークな機能と、CNNの強力な表現学習能力を利用する。
モデルは、マスクを使用して欠落したリージョンを生成するイメージインペイント用に特別に設計されたカスタムデータセットに基づいてトレーニングされる。
論文 参考訳(メタデータ) (2024-07-11T20:50:33Z) - Efficient Vision-Language Pre-training by Cluster Masking [13.845233914223561]
本稿では,視覚的コントラスト学習における画像パッチのマスキング方法を提案する。
画像パッチをランダムにマスキングし,画像の画素強度を計測した。
これは、文脈からのみマスクされた視覚構造のための単語を予測することをモデルに強制するため、対照的なトレーニング自体を超えて、余分な学習信号を提供する。
論文 参考訳(メタデータ) (2024-05-14T17:59:40Z) - MP-Former: Mask-Piloted Transformer for Image Segmentation [16.620469868310288]
Mask2Formerはデコーダ層間の一貫性のないマスク予測に悩まされている。
本手法では,マスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスのマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスマスをマスマスマスマストした。
論文 参考訳(メタデータ) (2023-03-13T17:57:59Z) - Improving Masked Autoencoders by Learning Where to Mask [65.89510231743692]
マスケ画像モデリングは視覚データに対する有望な自己教師型学習手法である。
本稿では,Gumbel-Softmax を用いて,対向学習マスク生成装置とマスク誘導画像モデリングプロセスとを相互接続するフレームワーク AutoMAE を提案する。
実験の結果,AutoMAEは,標準の自己監督型ベンチマークや下流タスクに対して,効果的な事前学習モデルを提供することがわかった。
論文 参考訳(メタデータ) (2023-03-12T05:28:55Z) - Scaling Language-Image Pre-training via Masking [63.36988191660858]
高速言語画像事前学習(FLIP)は、CLIPを訓練するためのシンプルで効率的な方法である。
マスキングによって、同じウォールタイム時間で、より多くの画像テキストペアから学ぶことができます。
FLIPは、同じデータでトレーニングされたCLIPよりも圧倒的に優れています。
論文 参考訳(メタデータ) (2022-12-01T18:59:57Z) - Decoupled Mixup for Generalized Visual Recognition [71.13734761715472]
視覚認識のためのCNNモデルを学習するための新しい「デカップリング・ミクスアップ」手法を提案する。
本手法は,各画像を識別領域と雑音発生領域に分離し,これらの領域を均一に組み合わせてCNNモデルを訓練する。
実験結果から,未知のコンテキストからなるデータに対する本手法の高一般化性能を示す。
論文 参考訳(メタデータ) (2022-10-26T15:21:39Z) - A Unified View of Masked Image Modeling [117.79456335844439]
マスク付き画像モデリングは、大規模な視覚変換器を訓練する際のラベル・ハングリーの問題を取り除く大きな可能性を示している。
マスク位置の教師モデルから正規化された意味的特徴を再構成する,MaskDistillと呼ばれるシンプルで効果的な手法を提案する。
画像分類とセマンティックセグメンテーションの実験結果から、MaskDistillは最先端の手法よりも同等または優れた性能を達成していることがわかった。
論文 参考訳(メタデータ) (2022-10-19T14:59:18Z) - Training Your Sparse Neural Network Better with Any Mask [106.134361318518]
高品質で独立したトレーニング可能なスパースマスクを作成するために、大規模なニューラルネットワークをプルーニングすることが望ましい。
本稿では、デフォルトの高密度ネットワークトレーニングプロトコルから逸脱するためにスパーストレーニングテクニックをカスタマイズできる別の機会を示す。
我々の新しいスパーストレーニングレシピは、スクラッチから様々なスパースマスクでトレーニングを改善するために一般的に適用されます。
論文 参考訳(メタデータ) (2022-06-26T00:37:33Z) - Corrupted Image Modeling for Self-Supervised Visual Pre-Training [103.99311611776697]
自己教師型視覚前訓練のためのCIM(Corrupted Image Modeling)を提案する。
CIMは、小さなトレーニング可能なBEiTを備えた補助発電機を使用して、人工マスクトークンを使用する代わりに入力イメージを破損させる。
事前トレーニング後、エンハンサーは下流タスク用の高容量ビジュアルエンコーダとして使用できる。
論文 参考訳(メタデータ) (2022-02-07T17:59:04Z) - Convolutional Neural Networks for Multispectral Image Cloud Masking [7.812073412066698]
畳み込みニューラルネットワーク(CNN)は多くの画像分類タスクの最先端技術であることが証明されている。
Proba-Vマルチスペクトル画像のクラウドマスキングにおける異なるCNNアーキテクチャの利用について検討する。
論文 参考訳(メタデータ) (2020-12-09T21:33:20Z) - Fully Convolutional Networks for Automatically Generating Image Masks to
Train Mask R-CNN [4.901462756978097]
Mask R-CNN法は、これまでオブジェクト検出の最良の結果を達成するが、トレーニングのためにMaskを入手するには非常に時間がかかり、手間がかかる。
本稿では,最新のMask R-CNN深層学習のための画像マスク自動生成手法を提案する。
提案手法は,Mask R-CNNを訓練するために自動的に画像マスクを得ることができ,セグメント化における平均精度(mAP)の90%以上の精度で非常に高い分類精度を得ることができる。
論文 参考訳(メタデータ) (2020-03-03T08:09:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。