論文の概要: Factorial Convolution Neural Networks
- arxiv url: http://arxiv.org/abs/2111.07072v1
- Date: Sat, 13 Nov 2021 09:02:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 16:21:15.452326
- Title: Factorial Convolution Neural Networks
- Title(参考訳): 因子畳み込みニューラルネットワーク
- Authors: Jaemo Sung, Eun-Sung Jung
- Abstract要約: GoogleNetは、オブジェクト検出のための視覚的特徴を抽出するベース畳み込みニューラルネットワーク(CNN)の1つとして、かなりの注目を集めている。
FactorNet CNNは複数の独立したサブCNNで構成されており、深い視覚的特徴の異なる側面をエンコードしている。
FactorNetは、リアルタイムオブジェクト検出システムにおいて、KITTIオブジェクト検出ベンチマークデータセット全体を通して、GoolgleNet上でさらなるスピードアップを生成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, GoogleNet has garnered substantial attention as one of the
base convolutional neural networks (CNNs) to extract visual features for object
detection. However, it experiences challenges of contaminated deep features
when concatenating elements with different properties. Also, since GoogleNet is
not an entirely lightweight CNN, it still has many execution overheads to apply
to a resource-starved application domain. Therefore, a new CNNs, FactorNet, has
been proposed to overcome these functional challenges. The FactorNet CNN is
composed of multiple independent sub CNNs to encode different aspects of the
deep visual features and has far fewer execution overheads in terms of weight
parameters and floating-point operations. Incorporating FactorNet into the
Faster-RCNN framework proved that FactorNet gives \ignore{a 5\%} better
accuracy at a minimum and produces additional speedup over GoolgleNet
throughout the KITTI object detection benchmark data set in a real-time object
detection system.
- Abstract(参考訳): 近年、GoogleNetは、オブジェクト検出のための視覚的特徴を抽出する基盤畳み込みニューラルネットワーク(CNN)の1つとして、かなりの注目を集めている。
しかし、異なる性質の要素を連結する際に、汚染された深い特徴の課題を経験する。
また、GoogleNetは完全に軽量なCNNではないため、リソース不足のアプリケーションドメインに適用するための実行オーバーヘッドがまだたくさんある。
したがって、これらの機能的課題を克服するために、新しいcnnであるfactornetが提案されている。
FactorNet CNNは、複数の独立したサブCNNで構成され、深い視覚的特徴の異なる側面をエンコードし、重みパラメータや浮動小数点演算の点ではるかに少ない実行オーバーヘッドを持つ。
FactorNet を Faster-RCNN フレームワークに組み込むことで、FacterNet は \ignore{a 5\%} の精度を最小限に向上させ、リアルタイムオブジェクト検出システムで設定された KITTI オブジェクト検出ベンチマークデータセット全体を通して、GoolgleNet を高速化することを示した。
関連論文リスト
- Unveiling the Power of Sparse Neural Networks for Feature Selection [60.50319755984697]
スパースニューラルネットワーク(SNN)は、効率的な特徴選択のための強力なツールとして登場した。
動的スパーストレーニング(DST)アルゴリズムで訓練されたSNNは、平均して50%以上のメモリと55%以上のFLOPを削減できることを示す。
以上の結果から,DSTアルゴリズムで訓練したSNNによる特徴選択は,平均して50ドル以上のメモリと55%のFLOPを削減できることがわかった。
論文 参考訳(メタデータ) (2024-08-08T16:48:33Z) - Enhancing Small Object Encoding in Deep Neural Networks: Introducing
Fast&Focused-Net with Volume-wise Dot Product Layer [0.0]
我々は、小さなオブジェクトを固定長特徴ベクトルに符号化するのに適した、新しいディープニューラルネットワークアーキテクチャであるFast&Focused-Netを紹介する。
Fast&Focused-Netは、CNNのいくつかの固有の制限に対処するために設計された、新たに提案された一連のレイヤであるVDP(Volume-wise Dot Product)レイヤを採用しています。
CIFAR-10, CIFAR-100, STL-10, SVHN-Cropped, Fashion-MNISTなどのデータセットでは, オブジェクト分類タスクにおいて, ネットワークが最先端の手法よりも優れていた。
画像分類における変換器エンコーダ(ViT)と組み合わせた場合
論文 参考訳(メタデータ) (2024-01-18T09:31:25Z) - Transferability of Convolutional Neural Networks in Stationary Learning
Tasks [96.00428692404354]
本稿では,大規模な空間問題に対する畳み込みニューラルネットワーク(CNN)の効率的なトレーニングのための新しいフレームワークを提案する。
このような信号の小さなウィンドウで訓練されたCNNは、再学習することなく、はるかに大きなウィンドウでほぼ性能を発揮することを示す。
以上の結果から,CNNは10人未満の訓練を受けた後,数百人のエージェントによる問題に対処できることが示唆された。
論文 参考訳(メタデータ) (2023-07-21T13:51:45Z) - SAR Despeckling Using Overcomplete Convolutional Networks [53.99620005035804]
スペックルはSAR画像を劣化させるため、リモートセンシングにおいて重要な問題である。
近年の研究では、畳み込みニューラルネットワーク(CNN)が古典的解法よりも優れていることが示されている。
本研究は、受容場を制限することで低レベルの特徴を学習することに集中するために、過剰なCNNアーキテクチャを用いる。
本稿では,合成および実SAR画像の非特定化手法と比較して,提案手法により非特定化性能が向上することを示す。
論文 参考訳(メタデータ) (2022-05-31T15:55:37Z) - DA$^{\textbf{2}}$-Net : Diverse & Adaptive Attention Convolutional
Neural Network [0.6999740786886536]
DA$2$-Netは、フィードフォワードCNNが多様な機能を明示的にキャプチャし、ネットワークのパフォーマンスを効果的に向上させるために最も有益な機能を適応的に選択し、強調することを可能にする。
CIFAR100,SVHN,ImageNetなど,ベンチマークデータセット上でDA$2$-Netを広範囲に評価した。
論文 参考訳(メタデータ) (2021-11-25T16:25:16Z) - Automating Visual Blockage Classification of Culverts with Deep Learning [11.532200478443773]
輸送された土石材によるカルバートの閉塞は, 都市部で発生した洪水の原因となると報告されている。
本稿では,ブロック関連情報の抽出にIntelligent Video Analytic (IVA)アルゴリズムを用いることを提案する。
論文 参考訳(メタデータ) (2021-04-21T08:40:09Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。