論文の概要: Lightweight Design and Optimization methods for DCNNs: Progress and Futures
- arxiv url: http://arxiv.org/abs/2412.16886v1
- Date: Sun, 22 Dec 2024 06:47:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:25.817183
- Title: Lightweight Design and Optimization methods for DCNNs: Progress and Futures
- Title(参考訳): DCNNの軽量設計と最適化手法の進歩と展望
- Authors: Hanhua Long, Wenbin Bi, Jian Sun,
- Abstract要約: 深層畳み込みニューラルネットワーク(DCNN)はコンピュータビジョンタスクにおいて優れた性能を示した。
高い計算コストと大規模なネットワークアーキテクチャは、リソース制約のあるハードウェアプラットフォーム上でのDCNNの広範な適用を著しく制限する。
本稿では,DCNNの軽量設計戦略を概観し,軽量設計とモデル圧縮の両面での最近の研究動向について考察する。
- 参考スコア(独自算出の注目度): 40.96453902709292
- License:
- Abstract: Lightweight design, as a key approach to mitigate disparity between computational requirements of deep learning models and hardware performance, plays a pivotal role in advancing application of deep learning technologies on mobile and embedded devices, alongside rapid development of smart home, telemedicine, and autonomous driving. With its outstanding feature extracting capabilities, Deep Convolutional Neural Networks (DCNNs) have demonstrated superior performance in computer vision tasks. However, high computational costs and large network architectures severely limit the widespread application of DCNNs on resource-constrained hardware platforms such as smartphones, robots, and IoT devices. This paper reviews lightweight design strategies for DCNNs and examines recent research progress in both lightweight architectural design and model compression. Additionally, this paper discusses current limitations in this field of research and propose prospects for future directions, aiming to provide valuable guidance and reflection for lightweight design philosophy on deep neural networks in the field of computer vision.
- Abstract(参考訳): ディープラーニングモデルとハードウェアパフォーマンスの計算要件の格差を軽減するための重要なアプローチとして、軽量設計は、スマートホーム、遠隔医療、自動運転の急速な開発とともに、モバイルおよび組み込みデバイスへのディープラーニング技術の応用を前進させる上で、重要な役割を担っている。
優れた特徴抽出機能により、Deep Convolutional Neural Networks (DCNN) はコンピュータビジョンタスクにおいて優れた性能を示した。
しかし、高い計算コストと大規模なネットワークアーキテクチャは、スマートフォン、ロボット、IoTデバイスといったリソース制約のあるハードウェアプラットフォームへのDCNNの広範な適用を著しく制限している。
本稿では,DCNNの軽量設計戦略を概観し,軽量設計とモデル圧縮の両面での最近の研究動向について考察する。
さらに,この研究分野における現在の限界について論じ,コンピュータビジョンの分野における深層ニューラルネットワークの軽量設計哲学に価値あるガイダンスとリフレクションを提供することを目的として,今後の方向性の展望を提案する。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Optical Computing for Deep Neural Network Acceleration: Foundations, Recent Developments, and Emerging Directions [3.943289808718775]
我々は、ディープニューラルネットワーク(DNN)を中心に、光学コンピューティングにおける基礎と最先端の開発について論じる。
様々な有望なアプローチが、工学的な光学デバイス、光学回路の強化、様々なDNNワークロードに光コンピューティングを適応できるアーキテクチャの設計のために説明されている。
DNNモデルをインテリジェントにチューニングし、マッピングして、高性能でリソース制約のある組み込み、エッジ、IoTプラットフォームにわたる光コンピューティングプラットフォームのパフォーマンスとエネルギー効率を向上させる、ハードウェア/ソフトウェア共同設計のための新しい技術についても論じる。
論文 参考訳(メタデータ) (2024-07-30T20:50:30Z) - Free-Space Optical Spiking Neural Network [0.0]
自由空間光深絞り畳み込みニューラルネットワーク(OSCNN)について紹介する。
この手法は人間の眼の計算モデルからインスピレーションを得ている。
以上の結果から,電子的ONNと比較して,レイテンシと消費電力を最小に抑えた有望な性能を示す。
論文 参考訳(メタデータ) (2023-11-08T09:41:14Z) - Dynamic Early Exiting Predictive Coding Neural Networks [3.542013483233133]
より小型で正確なデバイスを求めると、Deep Learningモデルはデプロイするには重すぎる。
予測符号化理論と動的早期退避に基づく浅層双方向ネットワークを提案する。
我々は,CIFAR-10上の画像分類におけるVGG-16と同等の精度を,より少ないパラメータと少ない計算量で達成した。
論文 参考訳(メタデータ) (2023-09-05T08:00:01Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Fast GraspNeXt: A Fast Self-Attention Neural Network Architecture for
Multi-task Learning in Computer Vision Tasks for Robotic Grasping on the Edge [80.88063189896718]
アーキテクチャと計算の複雑さが高いと、組み込みデバイスへのデプロイに適さない。
Fast GraspNeXtは、ロボットグルーピングのためのコンピュータビジョンタスクに埋め込まれたマルチタスク学習に適した、高速な自己認識型ニューラルネットワークアーキテクチャである。
論文 参考訳(メタデータ) (2023-04-21T18:07:14Z) - Enable Deep Learning on Mobile Devices: Methods, Systems, and
Applications [46.97774949613859]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野において前例のない成功を収めた
しかし、それらの優れた性能は、計算の複雑さのかなりのコストを伴っている。
本稿では,効率的なディープラーニング手法,システム,応用について概説する。
論文 参考訳(メタデータ) (2022-04-25T16:52:48Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Hardware and Software Optimizations for Accelerating Deep Neural
Networks: Survey of Current Trends, Challenges, and the Road Ahead [14.313423044185583]
本稿では,deep neural network (dnn) のような脳にインスパイアされた2つのモデルの重要な特性について紹介する。
DLモデルの単一推論は数十億の乗算および累積演算を必要とする可能性があるため、DLは非常に計算量とエネルギーを消費する。
論文 参考訳(メタデータ) (2020-12-21T10:27:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。