論文の概要: TripleNet: A Low Computing Power Platform of Low-Parameter Network
- arxiv url: http://arxiv.org/abs/2204.00943v1
- Date: Sat, 2 Apr 2022 21:55:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-05 14:40:18.356255
- Title: TripleNet: A Low Computing Power Platform of Low-Parameter Network
- Title(参考訳): TripleNet: 低パラメータネットワークの低コンピューティングパワープラットフォーム
- Authors: Rui-Yang Ju, Ting-Yu Lin, Jia-Hao Jian, and Jen-Shiun Chiang
- Abstract要約: TripleNetは、HarDNetとThreshNetをベースにした改良された畳み込みニューラルネットワークである。
HarDNetと比較して、TripleNetのパラメータは66%削減され、精度は18%向上した。
- 参考スコア(独自算出の注目度): 1.2542322096299672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the excellent performance of deep learning technology in the field of
computer vision, convolutional neural network (CNN) architecture has become the
main backbone of computer vision task technology. With the widespread use of
mobile devices, neural network models based on platforms with low computing
power are gradually being paid attention. This paper proposes a lightweight
convolutional neural network model, TripleNet, an improved convolutional neural
network based on HarDNet and ThreshNet, inheriting the advantages of small
memory usage and low power consumption of the mentioned two models. TripleNet
uses three different convolutional layers combined into a new model
architecture, which has less number of parameters than that of HarDNet and
ThreshNet. CIFAR-10 and SVHN datasets were used for image classification by
employing HarDNet, ThreshNet, and our proposed TripleNet for verification.
Experimental results show that, compared with HarDNet, TripleNet's parameters
are reduced by 66% and its accuracy rate is increased by 18%; compared with
ThreshNet, TripleNet's parameters are reduced by 37% and its accuracy rate is
increased by 5%.
- Abstract(参考訳): コンピュータビジョンの分野でのディープラーニング技術の優れたパフォーマンスにより、畳み込みニューラルネットワーク(CNN)アーキテクチャがコンピュータビジョンタスク技術の主要なバックボーンとなっている。
モバイルデバイスの普及に伴い、コンピューティング能力の低いプラットフォームに基づくニューラルネットワークモデルが徐々に注目されている。
本稿では,軽量畳み込みニューラルネットワークモデルとして,ハードネットとthreshnetに基づく改良型畳み込みニューラルネットワークであるtriplenetを提案する。
triplenetは3つの異なる畳み込み層を結合して新しいモデルアーキテクチャとし、これはhardnetやthreshnetよりもパラメータの数が少ない。
CIFAR-10とSVHNデータセットは,HarDNet,ThreshNet,提案したTripleNetを用いて画像分類を行った。
実験の結果,HarDNetと比較してTripleNetのパラメータは66%減少し,精度は18%向上し,ThreshNetと比較してTripleNetのパラメータは37%減少し,精度は5%向上した。
関連論文リスト
- MogaNet: Multi-order Gated Aggregation Network [64.16774341908365]
我々は,識別的視覚的表現学習のために,MogaNetと呼ばれる現代ConvNetの新たなファミリーを提案する。
MogaNetは概念的に単純だが効果的な畳み込みをカプセル化し、集約をコンパクトモジュールに集約する。
MogaNetは、ImageNetの最先端のViTやConvNetと比較して、優れたスケーラビリティ、パラメータの大幅な効率、競争性能を示している。
論文 参考訳(メタデータ) (2022-11-07T04:31:17Z) - SVNet: Where SO(3) Equivariance Meets Binarization on Point Cloud
Representation [65.4396959244269]
本論文は,3次元学習アーキテクチャを構築するための一般的なフレームワークを設計することによる課題に対処する。
提案手法はPointNetやDGCNNといった一般的なバックボーンに適用できる。
ModelNet40、ShapeNet、および実世界のデータセットであるScanObjectNNの実験では、この手法が効率、回転、精度の間の大きなトレードオフを達成することを示した。
論文 参考訳(メタデータ) (2022-09-13T12:12:19Z) - ThreshNet: An Efficient DenseNet using Threshold Mechanism to Reduce
Connections [1.2542322096299672]
本稿では,接続の方法をさらに最適化するためのしきい値機構を用いた新しいネットワークアーキテクチャを提案する。
ThreshNetは、DenseNetと比較して最大60%の推論時間を短縮し、トレーニング速度を最大35%高速化し、エラー率を20%削減する。
論文 参考訳(メタデータ) (2022-01-09T13:52:16Z) - DS-Net++: Dynamic Weight Slicing for Efficient Inference in CNNs and
Transformers [105.74546828182834]
本稿では,様々な難易度を持つ入力に対して,ネットワークパラメータの一部を適応的にスライスする動的ウェイトスライシングという,ハードウェア効率のよい動的推論方式を示す。
我々は、CNNのフィルタ数とCNNと変換器の多重次元を入力依存的に調整することで、動的スライム可能なネットワーク(DS-Net)と動的スライス可能なネットワーク(DS-Net++)を提案する。
論文 参考訳(メタデータ) (2021-09-21T09:57:21Z) - ThresholdNet: Pruning Tool for Densely Connected Convolutional Networks [2.267411144256508]
メモリのしきい値電圧の原理に言及した新しいタイプのプルーニングツール「しきい値」を導入する。
この手法は、異なる深さのブロックを異なる方法で接続し、メモリ使用量を減らすために使用される。
実験によると、HarDNetはDenseNetの2倍の速さで、ThresholdNetはHarDNetよりも10%速く、エラー率は10%低い。
論文 参考訳(メタデータ) (2021-08-28T08:48:31Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - ResPerfNet: Deep Residual Learning for Regressional Performance Modeling
of Deep Neural Networks [0.16311150636417257]
本稿では,ディープラーニングに基づくResPerfNetを提案する。この手法は,ニューラルネットワークの性能を予測するために,対象プラットフォーム上で得られた代表データセットを用いて残差ニューラルネットワークをトレーニングする。
実験の結果,ResPerfNetは個々のニューラルネットワーク層と,さまざまなプラットフォーム上でのフルネットワークモデルの実行時間を正確に予測できることがわかった。
論文 参考訳(メタデータ) (2020-12-03T03:02:42Z) - Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets [65.28292822614418]
解像度、深さ、幅を同時に拡大する巨大な公式は、ニューラルネットワークのためのルービックキューブを提供する。
本稿では,最小モデルサイズと計算コストで深層ニューラルネットワークを得るためのツイストルールを検討することを目的とする。
論文 参考訳(メタデータ) (2020-10-28T08:49:45Z) - DRU-net: An Efficient Deep Convolutional Neural Network for Medical
Image Segmentation [2.3574651879602215]
残留ネットワーク(ResNet)と密結合ネットワーク(DenseNet)は、ディープ畳み込みニューラルネットワーク(DCNN)のトレーニング効率と性能を大幅に改善した。
両ネットワークの利点を考慮した効率的なネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-04-28T12:16:24Z) - DyNet: Dynamic Convolution for Accelerating Convolutional Neural
Networks [16.169176006544436]
本稿では,画像内容に基づいてコンボリューションカーネルを適応的に生成する動的畳み込み手法を提案する。
MobileNetV3-Small/Largeアーキテクチャに基づいて、DyNetはImageNet上で70.3/77.1%のTop-1精度を達成し、2.9/1.9%改善した。
論文 参考訳(メタデータ) (2020-04-22T16:58:05Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。