論文の概要: Learning CNN filters from user-drawn image markers for coconut-tree
image classification
- arxiv url: http://arxiv.org/abs/2008.03549v2
- Date: Thu, 27 Aug 2020 23:02:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-01 11:38:53.848300
- Title: Learning CNN filters from user-drawn image markers for coconut-tree
image classification
- Title(参考訳): ココナッツツリー画像分類のためのユーザ描画画像マーカーからのCNNフィルタの学習
- Authors: Italos Estilon de Souza and Alexandre Xavier Falc\~ao
- Abstract要約: 本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
- 参考スコア(独自算出の注目度): 78.42152902652215
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Identifying species of trees in aerial images is essential for land-use
classification, plantation monitoring, and impact assessment of natural
disasters. The manual identification of trees in aerial images is tedious,
costly, and error-prone, so automatic classification methods are necessary.
Convolutional Neural Network (CNN) models have well succeeded in image
classification applications from different domains. However, CNN models usually
require intensive manual annotation to create large training sets. One may
conceptually divide a CNN into convolutional layers for feature extraction and
fully connected layers for feature space reduction and classification. We
present a method that needs a minimal set of user-selected images to train the
CNN's feature extractor, reducing the number of required images to train the
fully connected layers. The method learns the filters of each convolutional
layer from user-drawn markers in image regions that discriminate classes,
allowing better user control and understanding of the training process. It does
not rely on optimization based on backpropagation, and we demonstrate its
advantages on the binary classification of coconut-tree aerial images against
one of the most popular CNN models.
- Abstract(参考訳): 自然災害の土地利用分類,プランテーションモニタリング,影響評価には,空中画像中の木種同定が不可欠である。
航空画像における木々の手動識別は退屈で費用がかかりやすいため、自動的な分類が必要となる。
畳み込みニューラルネットワーク(cnn)モデルは、異なる領域からの画像分類応用に成功している。
しかし、cnnモデルは通常、大規模なトレーニングセットを作成するために集中的な手動アノテーションを必要とする。
概念的には、cnnを特徴抽出のための畳み込み層と、特徴空間の縮小と分類のための完全連結層に分割することができる。
本稿では,CNNの機能抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習し,より優れたユーザ制御とトレーニングプロセスの理解を可能にする。
バックプロパゲーションに基づく最適化には依存せず、最も人気のあるcnnモデルのひとつに対して、ココナッツの木空撮画像のバイナリ分類においてその利点を実証する。
関連論文リスト
- Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Facilitated machine learning for image-based fruit quality assessment in
developing countries [68.8204255655161]
自動画像分類は食品科学における教師あり機械学習の一般的な課題である。
事前学習型視覚変換器(ViT)に基づく代替手法を提案する。
標準的なデバイス上で限られたリソースで簡単に実装できる。
論文 参考訳(メタデータ) (2022-07-10T19:52:20Z) - Weakly-supervised fire segmentation by visualizing intermediate CNN
layers [82.75113406937194]
画像やビデオにおける火の局所化は、火災事故に対処するための自律システムにとって重要なステップである。
我々は,ネットワークのトレーニングに画像ラベルのみを使用する,画像中の火の弱い制御セグメント化について検討する。
CNNの中間層における特徴量の平均値は,2値セグメンテーション問題である火災セグメンテーションの場合,従来のクラスアクティベーションマッピング(CAM)法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-16T11:56:28Z) - ResMLP: Feedforward networks for image classification with
data-efficient training [73.26364887378597]
画像分類のための多層パーセプトロン上に構築されたアーキテクチャであるResMLPを提案する。
Timmライブラリと事前トレーニングされたモデルに基づいたコードを共有します。
論文 参考訳(メタデータ) (2021-05-07T17:31:44Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Learning degraded image classification with restoration data fidelity [0.0]
広く使用されている4つの分類ネットワークにおける分解型およびレベルの影響について検討する。
本稿では,事前学習したネットワークで得られた画像特徴を忠実度マップを用いて校正する手法を提案する。
その結果,提案手法は画像劣化による影響を緩和する有望な解であることがわかった。
論文 参考訳(メタデータ) (2021-01-23T23:47:03Z) - Convolutional Neural Networks from Image Markers [62.997667081978825]
特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
論文 参考訳(メタデータ) (2020-12-15T22:58:23Z) - Convolutional Neural Networks for Multispectral Image Cloud Masking [7.812073412066698]
畳み込みニューラルネットワーク(CNN)は多くの画像分類タスクの最先端技術であることが証明されている。
Proba-Vマルチスペクトル画像のクラウドマスキングにおける異なるCNNアーキテクチャの利用について検討する。
論文 参考訳(メタデータ) (2020-12-09T21:33:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。