論文の概要: Convolutional Neural Networks from Image Markers
- arxiv url: http://arxiv.org/abs/2012.12108v1
- Date: Tue, 15 Dec 2020 22:58:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:32:34.928503
- Title: Convolutional Neural Networks from Image Markers
- Title(参考訳): 画像マーカーによる畳み込みニューラルネットワーク
- Authors: Barbara C. Benato and Italos E. de Souza and Felipe L. Galv\~ao and
Alexandre X. Falc\~ao
- Abstract要約: 特徴 画像マーカーからの学習(FLIM)は、ごく少数の画像でユーザーが描画したストロークから、バックプロパゲーションのない畳み込みフィルタを推定するために最近提案されました。
本稿では、フルコネクテッド層に対してFLIMを拡張し、異なる画像分類問題について実証する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロから訓練された同じアーキテクチャを上回ります。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A technique named Feature Learning from Image Markers (FLIM) was recently
proposed to estimate convolutional filters, with no backpropagation, from
strokes drawn by a user on very few images (e.g., 1-3) per class, and
demonstrated for coconut-tree image classification. This paper extends FLIM for
fully connected layers and demonstrates it on different image classification
problems. The work evaluates marker selection from multiple users and the
impact of adding a fully connected layer. The results show that FLIM-based
convolutional neural networks can outperform the same architecture trained from
scratch by backpropagation.
- Abstract(参考訳): FLIM (Feature Learning from Image Markers) と呼ばれる手法が最近提案され、コンボリューションを伴わない畳み込みフィルタを1クラスあたり1-3のごくわずかな画像(例:1-3)でユーザが描画したストロークから推定し、ココナッツツリーの画像分類のために実証した。
本稿では,完全連結層に対してflimを拡張し,異なる画像分類問題に対してそれを示す。
この研究は、複数のユーザーからのマーカーの選択と、完全に接続されたレイヤーを追加する影響を評価する。
その結果、FLIMベースの畳み込みニューラルネットワークは、バックプロパゲーションによってゼロからトレーニングされた同じアーキテクチャより優れていることが示された。
関連論文リスト
- Dual-branch PolSAR Image Classification Based on GraphMAE and Local Feature Extraction [22.39266854681996]
本稿では,生成的自己教師型学習に基づく二分岐分類モデルを提案する。
最初のブランチはスーパーピクセルブランチであり、生成的な自己教師付きグラフマスキングオートエンコーダを用いてスーパーピクセルレベルの偏光度表現を学習する。
より詳細な分類結果を得るために、畳み込みニューラルネットワークに基づく画素ブランチをさらに組み込んで画素レベルの特徴を学習する。
論文 参考訳(メタデータ) (2024-08-08T08:17:50Z) - Feature Activation Map: Visual Explanation of Deep Learning Models for
Image Classification [17.373054348176932]
本研究では,機能活性化マップ (FAM) と呼ばれるポストホック解釈ツールを提案する。
FAMは、FC層を分類器として使用せずにディープラーニングモデルを解釈できる。
提案したFAMアルゴリズムの有効性を実証するために,10種類の深層学習モデルを用いて,少数ショット画像分類,コントラスト学習画像分類,画像検索タスクを行った。
論文 参考訳(メタデータ) (2023-07-11T05:33:46Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Multilayer deep feature extraction for visual texture recognition [0.0]
本稿では,テクスチャ分類における畳み込みニューラルネットワークの精度向上に着目した。
事前訓練されたニューラルネットワークの複数の畳み込み層から特徴を抽出し、フィッシャーベクトルを用いてそのような特徴を集約する。
本手法は,ブラジルの植物種識別の実践的課題と同様に,ベンチマークデータセットのテクスチャ分類における有効性を検証する。
論文 参考訳(メタデータ) (2022-08-22T03:53:43Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Fusion of evidential CNN classifiers for image classification [6.230751621285322]
本稿では,畳み込みニューラルネットワークを結合する信念関数に基づく情報融合手法を提案する。
このアプローチでは、事前訓練されたDSベースのCNNアーキテクチャが入力画像から特徴を抽出し、識別の異なるフレーム上のマス関数に変換する。
論文 参考訳(メタデータ) (2021-08-23T15:12:26Z) - Learning CNN filters from user-drawn image markers for coconut-tree
image classification [78.42152902652215]
本稿では,CNNの特徴抽出器を訓練するために,最小限のユーザ選択画像を必要とする手法を提案する。
本手法は,クラスを識別する画像領域のユーザ描画マーカーから,各畳み込み層のフィルタを学習する。
バックプロパゲーションに基づく最適化には依存せず、ココナッツツリー空中画像のバイナリ分類にその利点を実証する。
論文 参考訳(メタデータ) (2020-08-08T15:50:23Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。