論文の概要: Training and Inference for Integer-Based Semantic Segmentation Network
- arxiv url: http://arxiv.org/abs/2011.14504v1
- Date: Mon, 30 Nov 2020 02:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 07:12:11.713722
- Title: Training and Inference for Integer-Based Semantic Segmentation Network
- Title(参考訳): 整数型意味セグメンテーションネットワークのトレーニングと推論
- Authors: Jiayi Yang, Lei Deng, Yukuan Yang, Yuan Xie, Guoqi Li
- Abstract要約: セグメンテーションネットワークのトレーニングと推論のための新しい量子化フレームワークを提案する。
我々のフレームワークはFCN-VGG16やDeepLabv3-ResNet50のような主流セマンティックセマンティクスネットワークで評価されている。
- 参考スコア(独自算出の注目度): 18.457074855823315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Semantic segmentation has been a major topic in research and industry in
recent years. However, due to the computation complexity of pixel-wise
prediction and backpropagation algorithm, semantic segmentation has been
demanding in computation resources, resulting in slow training and inference
speed and large storage space to store models. Existing schemes that speed up
segmentation network change the network structure and come with noticeable
accuracy degradation. However, neural network quantization can be used to
reduce computation load while maintaining comparable accuracy and original
network structure. Semantic segmentation networks are different from
traditional deep convolutional neural networks (DCNNs) in many ways, and this
topic has not been thoroughly explored in existing works. In this paper, we
propose a new quantization framework for training and inference of segmentation
networks, where parameters and operations are constrained to 8-bit
integer-based values for the first time. Full quantization of the data flow and
the removal of square and root operations in batch normalization give our
framework the ability to perform inference on fixed-point devices. Our proposed
framework is evaluated on mainstream semantic segmentation networks like
FCN-VGG16 and DeepLabv3-ResNet50, achieving comparable accuracy against
floating-point framework on ADE20K dataset and PASCAL VOC 2012 dataset.
- Abstract(参考訳): セマンティックセグメンテーションは近年、研究と産業において主要なトピックとなっている。
しかし、画素方向予測とバックプロパゲーションアルゴリズムの計算の複雑さにより、セマンティクスセグメンテーションは計算リソースを要求され、トレーニングと推論の速度が遅く、モデルを保存するための大きなストレージスペースが確保されている。
セグメント化ネットワークを高速化する既存のスキームはネットワーク構造を変え、顕著な精度劣化をもたらす。
しかし、ニューラルネットワーク量子化は、同等の精度と元のネットワーク構造を維持しながら計算負荷を削減するために使用できる。
セマンティックセグメンテーションネットワークは、多くの点で従来のディープ畳み込みニューラルネットワーク(DCNN)とは異なる。
本稿では,セグメンテーションネットワークのトレーニングと推論のための新しい量子化フレームワークを提案し,パラメータと演算を8ビット整数ベースの値に初めて制約する。
データフローの完全量子化とバッチ正規化における正方形およびルート操作の除去により、固定点デバイス上で推論を行うことができる。
提案手法はFCN-VGG16やDeepLabv3-ResNet50などのセマンティックセグメンテーションネットワーク上で評価され,ADE20KデータセットとPASCAL VOC 2012データセット上での浮動小数点フレームワークと同等の精度を実現している。
関連論文リスト
- A Generalization of Continuous Relaxation in Structured Pruning [0.3277163122167434]
トレンドは、パラメータが増加するより深い、より大きなニューラルネットワークが、より小さなニューラルネットワークよりも高い精度を達成することを示している。
ネットワーク拡張, プルーニング, サブネットワーク崩壊, 削除のためのアルゴリズムを用いて, 構造化プルーニングを一般化する。
結果のCNNは計算コストのかかるスパース行列演算を使わずにGPUハードウェア上で効率的に実行される。
論文 参考訳(メタデータ) (2023-08-28T14:19:13Z) - Receptive Field-based Segmentation for Distributed CNN Inference
Acceleration in Collaborative Edge Computing [93.67044879636093]
協調エッジコンピューティングネットワークにおける分散畳み込みニューラルネットワーク(CNN)を用いた推論高速化について検討する。
我々は,CNNモデルを複数の畳み込み層に分割するために,融合層並列化を用いた新しい協調エッジコンピューティングを提案する。
論文 参考訳(メタデータ) (2022-07-22T18:38:11Z) - Multi-Exit Semantic Segmentation Networks [78.44441236864057]
本稿では,最先端セグメンテーションモデルをMESSネットワークに変換するフレームワークを提案する。
パラメトリド早期出口を用いた特別訓練されたCNNは、より簡単なサンプルの推測時に、その深さに沿って保存する。
接続されたセグメンテーションヘッドの数、配置、アーキテクチャとエグジットポリシーを併用して、デバイス機能とアプリケーション固有の要件に適応する。
論文 参考訳(メタデータ) (2021-06-07T11:37:03Z) - ABCNet: Attentive Bilateral Contextual Network for Efficient Semantic
Segmentation of Fine-Resolution Remote Sensing Images [5.753245638190626]
リモートセンシング画像のセマンティックセグメンテーションは、精密農業、環境保護、経済評価において重要な役割を担っている。
空間分解能の増加によって引き起こされる複雑な情報のため、最先端のディープラーニングアルゴリズムは通常、セグメンテーションに複雑なネットワークアーキテクチャを使用する。
本稿では,2枝の畳み込みニューラルネットワーク(CNN)であるABCNetを提案する。
論文 参考訳(メタデータ) (2021-02-04T10:43:08Z) - ItNet: iterative neural networks with small graphs for accurate and
efficient anytime prediction [1.52292571922932]
本研究では,計算グラフの観点から,メモリフットプリントが小さいネットワークモデルについて紹介する。
CamVidおよびCityscapesデータセットでセマンティックセグメンテーションの最新の結果を示します。
論文 参考訳(メタデータ) (2021-01-21T15:56:29Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - Encoding the latent posterior of Bayesian Neural Networks for
uncertainty quantification [10.727102755903616]
我々は,複雑なコンピュータビジョンアーキテクチャに適した効率的な深部BNNを目指している。
可変オートエンコーダ(VAE)を利用して、各ネットワーク層におけるパラメータの相互作用と潜在分布を学習する。
我々のアプローチであるLatent-Posterior BNN(LP-BNN)は、最近のBatchEnsemble法と互換性があり、高い効率(トレーニングとテストの両方における計算とメモリ)のアンサンブルをもたらす。
論文 参考訳(メタデータ) (2020-12-04T19:50:09Z) - Efficient Integer-Arithmetic-Only Convolutional Neural Networks [87.01739569518513]
我々は従来のReLUを境界ReLUに置き換え、その減少は活性化量子化によるものであることを示す。
我々の整数ネットワークは、対応するFPNネットワークと同等の性能を発揮するが、メモリコストは1/4に過ぎず、最新のGPUでは2倍高速である。
論文 参考訳(メタデータ) (2020-06-21T08:23:03Z) - Network Adjustment: Channel Search Guided by FLOPs Utilization Ratio [101.84651388520584]
本稿では,ネットワークの精度をFLOPの関数として考慮した,ネットワーク調整という新しいフレームワークを提案する。
標準画像分類データセットと幅広いベースネットワークの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2020-04-06T15:51:00Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。