論文の概要: Fast Training of Deep Networks with One-Class CNNs
- arxiv url: http://arxiv.org/abs/2007.00046v2
- Date: Wed, 22 Jul 2020 11:51:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 02:33:19.151670
- Title: Fast Training of Deep Networks with One-Class CNNs
- Title(参考訳): ワンクラスCNNを用いたディープネットワークの高速学習
- Authors: Abdul Mueed Hafiz, Ghulam Mohiuddin Bhat
- Abstract要約: 提案されたアプローチは、この方向への実行可能な取り組みである。
クラスごとに1つのCNNを訓練し、クラスごとに1つのCNNを訓練する。
このアプローチの利点は一般的に、従来のマルチクラスディープネットワークのトレーニング時間のほぼ半分または2分の2を取る一方で、より優れた認識精度である。
- 参考スコア(独自算出の注目度): 1.8782750537161614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-class CNNs have shown promise in novelty detection. However, very less
work has been done on extending them to multiclass classification. The proposed
approach is a viable effort in this direction. It uses one-class CNNs i.e., it
trains one CNN per class, for multiclass classification. An ensemble of such
one-class CNNs is used for multiclass classification. The benefits of the
approach are generally better recognition accuracy while taking almost even
half or two-thirds of the training time of a conventional multi-class deep
network. The proposed approach has been applied successfully to face
recognition and object recognition tasks. For face recognition, a 1000 frame
RGB video, featuring many faces together, has been used for benchmarking of the
proposed approach. Its database is available on request via e-mail. For object
recognition, the Caltech-101 Image Database and 17Flowers Dataset have also
been used. The experimental results support the claims made.
- Abstract(参考訳): ワンクラスCNNは新規性検出の可能性を示している。
しかし、それらを多クラス分類に拡張する作業は少ない。
提案されたアプローチは、この方向への有効な取り組みである。
クラスごとに1つのCNNを訓練し、クラスごとに1つのCNNを訓練する。
このような1クラスcnnのアンサンブルは、マルチクラス分類に使用される。
このアプローチの利点は一般的に、従来のマルチクラスディープネットワークのトレーニング時間のほぼ3分の2を消費しながら、認識精度が向上する。
提案手法は,顔認識や物体認識に有効である。
顔認識では、多くの顔を組み合わせた1000フレームのrgbビデオが、提案手法のベンチマークに使われている。
そのデータベースは電子メールでリクエストで入手できる。
オブジェクト認識には、Caltech-101 Image Databaseと17Flowers Datasetも使用されている。
実験結果は主張を支持する。
関連論文リスト
- Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Temporal Saliency Query Network for Efficient Video Recognition [82.52760040577864]
ビデオ認識は、インターネットやモバイルデバイス上でのマルチメディアデータの爆発的な成長に関するホットスポット研究のトピックである。
既存の方法の多くは、クラス固有のサリエンシスコアを意識せずに、サリエントフレームを選択する。
そこで我々は,Saliency Query (TSQ) 機構を提案する。
論文 参考訳(メタデータ) (2022-07-21T09:23:34Z) - An Acceleration Method Based on Deep Learning and Multilinear Feature
Space [0.0]
本稿では,大規模CNNアーキテクチャからの学習を伝達するために,Multilinear Feature Space (MFS)法に基づく代替手法を提案する。
提案手法はCNNを用いて特徴マップを生成するが,複雑性低減手法として機能しない。
AMFCと呼ばれる本手法では,事前学習したCNNからの移動学習を用いて,新しいサンプル画像の分類時間を最小限に抑える。
論文 参考訳(メタデータ) (2021-10-16T23:49:12Z) - HAT: Hierarchical Aggregation Transformers for Person Re-identification [87.02828084991062]
我々は,CNNとトランスフォーマーの両方の利点を,高性能な画像ベース人物Re-IDに適用する。
作業は、画像ベースのRe-IDのためのCNNとTransformerの両方の利点を初めて活用する。
論文 参考訳(メタデータ) (2021-07-13T09:34:54Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Fusion of CNNs and statistical indicators to improve image
classification [65.51757376525798]
畳み込みネットワークは過去10年間、コンピュータビジョンの分野を支配してきた。
この傾向を長引かせる主要な戦略は、ネットワーク規模の拡大によるものだ。
我々は、異種情報ソースを追加することは、より大きなネットワークを構築するよりもCNNにとって費用対効果が高いと仮定している。
論文 参考訳(メタデータ) (2020-12-20T23:24:31Z) - Exploring the Interchangeability of CNN Embedding Spaces [0.5735035463793008]
画像分類CNN10点と顔認識CNN4点をマップする。
同じクラスにトレーニングされ、共通のバックエンド-ログアーキテクチャを共有するCNNの場合、リニアマッピングは常にバックエンド層重みから直接計算される。
この意味は遠く離れており、共通のタスクのために設計、訓練されたネットワークによって学習された表現間の基礎的な共通性を示している。
論文 参考訳(メタデータ) (2020-10-05T20:32:40Z) - Training Interpretable Convolutional Neural Networks by Differentiating
Class-specific Filters [64.46270549587004]
畳み込みニューラルネットワーク(CNN)は、様々なタスクでうまく使われている。
CNNは、しばしば「ブラックボックス」と解釈可能性の欠如とみなされる。
本稿では,クラス固有のフィルタを奨励することで,解釈可能なCNNを訓練する新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-16T09:12:26Z) - When CNNs Meet Random RNNs: Towards Multi-Level Analysis for RGB-D
Object and Scene Recognition [10.796613905980609]
オブジェクトおよびシーン認識タスクのための多モードRGB-D画像から識別的特徴表現を抽出する新しいフレームワークを提案する。
CNNアクティベーションの高次元性に対応するため、ランダムな重み付けプール方式が提案されている。
実験では、RNNステージにおける完全ランダム化構造がCNNアクティベーションを符号化し、識別的ソリッドな特徴を成功させることを確認した。
論文 参考訳(メタデータ) (2020-04-26T10:58:27Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z) - Ensembles of Deep Neural Networks for Action Recognition in Still Images [3.7900158137749336]
本稿では,大量のラベル付き行動認識データセットの欠如に対処するための伝達学習手法を提案する。
フレームワークには8つのトレーニング済みのCNNも使用して、Stanford 40データセットのパフォーマンスを調査しています。
我々の手法の最良の設定は、スタンフォード40データセットで93.17$%の精度を達成することができる。
論文 参考訳(メタデータ) (2020-03-22T13:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。