論文の概要: An Empirical Study of Adder Neural Networks for Object Detection
- arxiv url: http://arxiv.org/abs/2112.13608v1
- Date: Mon, 27 Dec 2021 11:03:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-28 15:54:51.343941
- Title: An Empirical Study of Adder Neural Networks for Object Detection
- Title(参考訳): 物体検出のための加算ニューラルネットワークの実験的検討
- Authors: Xinghao Chen, Chang Xu, Minjing Dong, Chunjing Xu, Yunhe Wang
- Abstract要約: 加算ニューラルネットワーク(AdderNets)は、追加操作のみを伴う画像分類において、優れたパフォーマンスを示している。
本稿では,オブジェクト検出のためのAdderNetsを実証研究する。
- 参考スコア(独自算出の注目度): 67.64041181937624
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adder neural networks (AdderNets) have shown impressive performance on image
classification with only addition operations, which are more energy efficient
than traditional convolutional neural networks built with multiplications.
Compared with classification, there is a strong demand on reducing the energy
consumption of modern object detectors via AdderNets for real-world
applications such as autonomous driving and face detection. In this paper, we
present an empirical study of AdderNets for object detection. We first reveal
that the batch normalization statistics in the pre-trained adder backbone
should not be frozen, since the relatively large feature variance of AdderNets.
Moreover, we insert more shortcut connections in the neck part and design a new
feature fusion architecture for avoiding the sparse features of adder layers.
We present extensive ablation studies to explore several design choices of
adder detectors. Comparisons with state-of-the-arts are conducted on COCO and
PASCAL VOC benchmarks. Specifically, the proposed Adder FCOS achieves a 37.8\%
AP on the COCO val set, demonstrating comparable performance to that of the
convolutional counterpart with an about $1.4\times$ energy reduction.
- Abstract(参考訳): 加算ニューラルネットワーク(AdderNets)は、加算操作のみを含む画像分類において印象的な性能を示しており、乗算で構築された従来の畳み込みニューラルネットワークよりもエネルギー効率が高い。
分類と比較すると、自動運転や顔検出のような現実世界のアプリケーションのための加算網による現代の物体検出器のエネルギー消費を減らすという強い需要がある。
本稿では,オブジェクト検出のためのAdderNetの実証的研究を行う。
まず,事前学習した加算器バックボーンのバッチ正規化統計を凍結すべきではないことを明らかにした。
さらに,ネック部により多くのショートカット接続を挿入し,加算層のスパースな特徴を回避するための新機能フュージョンアーキテクチャを設計する。
我々は,加算器検出器の設計選択を探究するために,広範なアブレーション研究を行う。
COCOとPASCAL VOCのベンチマークで最先端との比較を行った。
具体的には、提案されたAdder FCOSは、COCO val集合上で37.8 %のAPを達成し、約1.4 倍のエネルギー還元で畳み込み型と同等の性能を示す。
関連論文リスト
- NIDS Neural Networks Using Sliding Time Window Data Processing with Trainable Activations and its Generalization Capability [0.0]
本稿では,ネットワーク侵入検知システム(NIDS)のためのニューラルネットワークについて述べる。
ディープパケットインスペクションに頼らず、ほとんどのNIDSデータセットで見つからず、従来のフローコレクタから簡単に取得できる11の機能しか必要としない。
報告されたトレーニング精度は、提案手法の99%を超え、ニューラルネットワークの入力特性は20に満たない。
論文 参考訳(メタデータ) (2024-10-24T11:36:19Z) - Adder Neural Networks [75.54239599016535]
我々は、ディープニューラルネットワークにおける大規模な乗算を交換するために、加算器ネットワーク(AdderNets)を提案する。
AdderNetsでは、フィルタと入力特徴の間の$ell_p$-norm距離を出力応答として取ります。
提案したAdderNetsは,ImageNetデータセット上でResNet-50を用いて,75.7%のTop-1精度92.3%のTop-5精度を達成可能であることを示す。
論文 参考訳(メタデータ) (2021-05-29T04:02:51Z) - AdderNet and its Minimalist Hardware Design for Energy-Efficient
Artificial Intelligence [111.09105910265154]
アドラー畳み込みニューラルネットワーク(AdderNet)を用いた新しいミニマリストハードウェアアーキテクチャを提案する。
AdderNet全体の16%の高速化を実現している。
我々は、AdderNetが他の競争相手を追い越せると結論付けている。
論文 参考訳(メタデータ) (2021-01-25T11:31:52Z) - Noise Sensitivity-Based Energy Efficient and Robust Adversary Detection
in Neural Networks [3.125321230840342]
逆の例は、愚かな分類器ネットワークに注意深く浸透した入力であり、一方で人間には変化がない。
本稿では,深層ニューラルネットワーク(DNN)を検出器サブネットワークで拡張する構造化手法を提案する。
本手法は,実例に対する最先端検出器のロバスト性が向上することを示す。
論文 参考訳(メタデータ) (2021-01-05T14:31:53Z) - AdderSR: Towards Energy Efficient Image Super-Resolution [127.61437479490047]
本稿では,加算器ニューラルネットワーク(AdderNet)を用いた単一画像超解問題について検討する。
畳み込みニューラルネットワークと比較して、AdderNetは加算を利用して出力特性を計算し、従来の乗算の膨大なエネルギー消費を回避する。
論文 参考訳(メタデータ) (2020-09-18T15:29:13Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - AdderNet: Do We Really Need Multiplications in Deep Learning? [159.174891462064]
我々は、深層ニューラルネットワークにおける膨大な乗算を、計算コストを削減するためにはるかに安価な加算のために取引するための加算器ネットワーク(AdderNets)を提案する。
本稿では,AdderNets のバックプロパゲーション手法を提案する。
その結果、提案されたAdderNetsは、ImageNetデータセット上でResNet-50を使用して、74.9%のTop-1精度91.7%のTop-5精度を達成することができる。
論文 参考訳(メタデータ) (2019-12-31T06:56:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。