論文の概要: Architecturing Binarized Neural Networks for Traffic Sign Recognition
- arxiv url: http://arxiv.org/abs/2303.15005v1
- Date: Mon, 27 Mar 2023 08:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-28 16:29:55.909140
- Title: Architecturing Binarized Neural Networks for Traffic Sign Recognition
- Title(参考訳): 交通信号認識のための二元化ニューラルネットワークの構成
- Authors: Andreea Postovan and M\u{a}d\u{a}lina Era\c{s}cu
- Abstract要約: バイナリニューラルネットワーク(BNN)は、計算に制限された、エネルギーに制約のあるデバイスにおいて、有望な結果を示している。
我々はドイツ交通信号認識ベンチマーク(GTSRB)の90%以上を達成できるBNNアーキテクチャを提案する。
これらのアーキテクチャのパラメータの数は100kから2M未満まで様々である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traffic signs support road safety and managing the flow of traffic, hence are
an integral part of any vision system for autonomous driving. While the use of
deep learning is well-known in traffic signs classification due to the high
accuracy results obtained using convolutional neural networks (CNNs) (state of
the art is 99.46\%), little is known about binarized neural networks (BNNs).
Compared to CNNs, BNNs reduce the model size and simplify convolution
operations and have shown promising results in computationally limited and
energy-constrained devices which appear in the context of autonomous driving.
This work presents a bottom-up approach for architecturing BNNs by studying
characteristics of the constituent layers. These constituent layers (binarized
convolutional layers, max pooling, batch normalization, fully connected layers)
are studied in various combinations and with different values of kernel size,
number of filters and of neurons by using the German Traffic Sign Recognition
Benchmark (GTSRB) for training. As a result, we propose BNNs architectures
which achieve more than $90\%$ for GTSRB (the maximum is $96.45\%$) and an
average greater than $80\%$ (the maximum is $88.99\%$) considering also the
Belgian and Chinese datasets for testing. The number of parameters of these
architectures varies from 100k to less than 2M. The accompanying material of
this paper is publicly available at
https://github.com/apostovan21/BinarizedNeuralNetwork.
- Abstract(参考訳): 交通標識は道路の安全と交通の流れの管理を支援するため、自動運転の視覚システムに不可欠な部分である。
畳み込みニューラルネットワーク(cnns)を用いた精度の高い結果(技術状態は99.46\%)のため、交通標識分類ではディープラーニングの使用がよく知られているが、二元化ニューラルネットワーク(bnns)についてはほとんど知られていない。
cnnと比較すると、bnnはモデルサイズを小さくし、畳み込み操作を単純化し、自動運転の文脈で現れる計算量制限されたエネルギー制約付きデバイスで有望な結果を示している。
本研究は,bnnを構成層の特徴から構築するためのボトムアップアプローチを提案する。
これらの構成層(バイナリ化畳み込み層、最大プール層、バッチ正規化層、完全連結層)は、カーネルサイズ、フィルタ数、ニューロンの異なる値の様々な組み合わせで、トレーニングにドイツ交通信号認識ベンチマーク(GTSRB)を用いて研究されている。
その結果、GTSRBの90ドル以上(最大値が96.45ドル)、テスト用のベルギーと中国のデータセットも考慮して80ドル以上(最大値が8.99ドル)のBNNアーキテクチャを提案する。
これらのアーキテクチャのパラメータの数は100kから2M未満である。
本論文の付属資料はhttps://github.com/apostovan21/BinarizedNeuralNetwork.comで公開されている。
関連論文リスト
- NAS-BNN: Neural Architecture Search for Binary Neural Networks [55.058512316210056]
我々は、NAS-BNNと呼ばれる二元ニューラルネットワークのための新しいニューラルネットワーク探索手法を提案する。
我々の発見したバイナリモデルファミリーは、20Mから2Mまでの幅広い操作(OP)において、以前のBNNよりも優れていた。
さらに,対象検出タスクにおける探索されたBNNの転送可能性を検証するとともに,探索されたBNNを用いたバイナリ検出器は,MSデータセット上で31.6% mAP,370万 OPsなどの新たな最先端結果を得る。
論文 参考訳(メタデータ) (2024-08-28T02:17:58Z) - ApproxDARTS: Differentiable Neural Architecture Search with Approximate Multipliers [0.24578723416255746]
本稿では、DARTSと呼ばれる一般的な微分可能なニューラルアーキテクチャ探索手法を応用し、近似乗算器を活用可能なニューラルアーキテクチャ探索(NAS)手法であるApproxDARTSを提案する。
ApproxDARTSは10ドル未満のGPU時間で完全なアーキテクチャ検索を実行でき、畳み込み層に近似乗算器を含む競合畳み込みニューラルネットワーク(CNN)を生成する。
論文 参考訳(メタデータ) (2024-04-08T09:54:57Z) - Detection-segmentation convolutional neural network for autonomous
vehicle perception [0.0]
物体検出とセグメンテーションは、自動運転車の認識システムの2つの中核モジュールである。
現在最もよく使われているアルゴリズムはディープニューラルネットワークに基づいており、高い効率性を保証するが、高性能なコンピューティングプラットフォームを必要とする。
ネットワークの複雑さの低減は、適切なアーキテクチャ、表現、コンピューティングプラットフォームを使用することで達成できる。
論文 参考訳(メタデータ) (2023-06-30T08:54:52Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Binary Complex Neural Network Acceleration on FPGA [19.38270650475235]
Binarized Complex Neural Network (BCNN) は、複雑なデータをリアルタイムに分類する大きな可能性を示している。
我々は、エッジデバイス上で5000フレーム/秒の推論スループットを提供できるBCNNの構造的プルーニングベースのアクセラレーションを提案する。
論文 参考訳(メタデータ) (2021-08-10T17:53:30Z) - Training Graph Neural Networks with 1000 Layers [133.84813995275988]
我々は、GNNのメモリとパラメータ効率を向上させるために、可逆接続、グループ畳み込み、重み付け、平衡モデルについて検討する。
我々の知る限りでは、RevGNN-Deepは文学で最も深いGNNである。
論文 参考訳(メタデータ) (2021-06-14T15:03:00Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Self-Distribution Binary Neural Networks [18.69165083747967]
重みとアクティベーションの両方がバイナリ(すなわち1ビット表現)である2進ニューラルネットワーク(BNN)について研究する。
SD-BNN(Self-Distribution Biinary Neural Network)を提案する。
CIFAR-10とImageNetデータセットの実験では、提案されたSD-BNNは、最先端(SOTA)BNNよりも一貫して優れていた。
論文 参考訳(メタデータ) (2021-03-03T13:39:52Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。