論文の概要: A Review of Recent Advances of Binary Neural Networks for Edge Computing
- arxiv url: http://arxiv.org/abs/2011.14824v1
- Date: Tue, 24 Nov 2020 01:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:37:03.383020
- Title: A Review of Recent Advances of Binary Neural Networks for Edge Computing
- Title(参考訳): エッジコンピューティングのためのバイナリニューラルネットワークの最近の進歩
- Authors: Wenyu Zhao, Teli Ma, Xuan Gong, Baochang Zhang, and David Doermann
- Abstract要約: 本稿では、フロントエンドのエッジベースコンピューティングに適したバイナリニューラルネットワーク(BNN)と1ビットCNN技術について述べる。
また,コンピュータビジョンや音声認識の分野での応用についても紹介し,エッジコンピューティングの今後の応用について論じる。
- 参考スコア(独自算出の注目度): 15.646692826399438
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Edge computing is promising to become one of the next hottest topics in
artificial intelligence because it benefits various evolving domains such as
real-time unmanned aerial systems, industrial applications, and the demand for
privacy protection. This paper reviews recent advances on binary neural network
(BNN) and 1-bit CNN technologies that are well suitable for front-end,
edge-based computing. We introduce and summarize existing work and classify
them based on gradient approximation, quantization, architecture, loss
functions, optimization method, and binary neural architecture search. We also
introduce applications in the areas of computer vision and speech recognition
and discuss future applications for edge computing.
- Abstract(参考訳): エッジコンピューティングは、リアルタイムの無人航空機システム、産業アプリケーション、プライバシー保護の要求など、さまざまな進化途上のドメインにメリットがあるため、人工知能における次のホットトピックの1つになることを約束している。
本稿では、フロントエンドのエッジベースコンピューティングに適したバイナリニューラルネットワーク(bnn)と1ビットcnn技術の最近の進歩を概観する。
本稿では,既存の研究を概説し,勾配近似,量子化,アーキテクチャ,損失関数,最適化法,バイナリニューラルアーキテクチャ探索に基づいて分類する。
また,コンピュータビジョンや音声認識の分野での応用例を紹介し,エッジコンピューティングの今後の応用について論じる。
関連論文リスト
- Networking Systems for Video Anomaly Detection: A Tutorial and Survey [55.28514053969056]
ビデオ異常検出(VAD)は人工知能(AI)コミュニティにおける基本的な研究課題である。
本稿では,各種深層学習駆動型VAD経路の基本前提,学習フレームワーク,適用シナリオについて述べる。
我々は、産業用IoTおよびスマート都市における最新のNSVAD研究と、デプロイ可能なNSVADのためのエンドクラウド共同アーキテクチャを紹介します。
論文 参考訳(メタデータ) (2024-05-16T02:00:44Z) - QuadraNet: Improving High-Order Neural Interaction Efficiency with
Hardware-Aware Quadratic Neural Networks [28.130386036553144]
コンピュータビジョン指向のニューラルネットワーク設計の最近の進歩は、主に高次のニューラルネットワークの相互作用を捉えている。
ニューロン再構成から構造ブロックへの包括的モデル設計手法である QuadraNet を提案する。
現状の高次手法と比較して、最大1.5$times$スループット、メモリフットプリントの30%削減、認識性能の類似が示されている。
論文 参考訳(メタデータ) (2023-11-29T08:45:27Z) - Edge-Cloud Polarization and Collaboration: A Comprehensive Survey [61.05059817550049]
クラウドとエッジ両方のAIの体系的なレビューを行います。
私たちはクラウドとエッジモデリングの協調学習メカニズムを最初にセットアップしました。
我々は現在進行中の最先端AIトピックの可能性と実践経験について議論する。
論文 参考訳(メタデータ) (2021-11-11T05:58:23Z) - Bringing AI To Edge: From Deep Learning's Perspective [7.308396023489246]
エッジコンピューティングと人工知能(AI)は、エッジインテリジェンスと呼ばれる新しいシステムを構築するために徐々に交差している。
これらの課題の1つは、計算集約的なディープラーニングアルゴリズムと、計算能力の低いエッジシステムの間のテキスト計算のギャップである。
本稿では,エッジインテリジェンスシステムに有用な代表的かつ最新のディープラーニング技術について調査する。
論文 参考訳(メタデータ) (2020-11-25T12:07:21Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Memristors -- from In-memory computing, Deep Learning Acceleration,
Spiking Neural Networks, to the Future of Neuromorphic and Bio-inspired
Computing [25.16076541420544]
機械学習は、特にディープラーニングの形で、人工知能の最近の基本的な発展のほとんどを駆動している。
ディープラーニングは、オブジェクト/パターン認識、音声と自然言語処理、自動運転車、インテリジェントな自己診断ツール、自律ロボット、知識に富んだパーソナルアシスタント、監視といった分野に成功している。
本稿では、電力効率の高いインメモリコンピューティング、ディープラーニングアクセラレーター、スパイクニューラルネットワークの実装のための潜在的なソリューションとして、CMOSハードウェア技術、memristorsを超越した小説をレビューする。
論文 参考訳(メタデータ) (2020-04-30T16:49:03Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Deep Learning for Ultra-Reliable and Low-Latency Communications in 6G
Networks [84.2155885234293]
まず,データ駆動型教師付き深層学習と深部強化学習をURLLCに適用する方法を概説する。
このようなオープンな問題に対処するために、デバイスインテリジェンス、エッジインテリジェンス、およびURLLCのためのクラウドインテリジェンスを可能にするマルチレベルアーキテクチャを開発した。
論文 参考訳(メタデータ) (2020-02-22T14:38:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。