論文の概要: On the Viability of using LLMs for SW/HW Co-Design: An Example in
Designing CiM DNN Accelerators
- arxiv url: http://arxiv.org/abs/2306.06923v1
- Date: Mon, 12 Jun 2023 07:50:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 15:39:19.326415
- Title: On the Viability of using LLMs for SW/HW Co-Design: An Example in
Designing CiM DNN Accelerators
- Title(参考訳): SW/HW共同設計におけるLCMの使用可能性について:CiM DNN加速器の設計例
- Authors: Zheyu Yan, Yifan Qin, Xiaobo Sharon Hu, Yiyu Shi
- Abstract要約: Deep Neural Networks (DNN)は、幅広いタスクで素晴らしいパフォーマンスを示している。
エッジデバイスにDNNをデプロイすることは、強力なパワーと計算予算のために大きな課題となる。
この問題に対処するために,LLM(Large Language Models)を利用した新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.02304927398616
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep Neural Networks (DNNs) have demonstrated impressive performance across a
wide range of tasks. However, deploying DNNs on edge devices poses significant
challenges due to stringent power and computational budgets. An effective
solution to this issue is software-hardware (SW-HW) co-design, which allows for
the tailored creation of DNN models and hardware architectures that optimally
utilize available resources. However, SW-HW co-design traditionally suffers
from slow optimization speeds because their optimizers do not make use of
heuristic knowledge, also known as the ``cold start'' problem. In this study,
we present a novel approach that leverages Large Language Models (LLMs) to
address this issue. By utilizing the abundant knowledge of pre-trained LLMs in
the co-design optimization process, we effectively bypass the cold start
problem, substantially accelerating the design process. The proposed method
achieves a significant speedup of 25x. This advancement paves the way for the
rapid and efficient deployment of DNNs on edge devices.
- Abstract(参考訳): Deep Neural Networks (DNN)は、幅広いタスクで素晴らしいパフォーマンスを示している。
しかし、エッジデバイスにDNNをデプロイすることは、強力なパワーと計算予算のために大きな課題となる。
この問題に対する効果的な解決策はソフトウェアハードウェア(SW-HW)の共同設計であり、利用可能なリソースを最適に活用するDNNモデルとハードウェアアーキテクチャのカスタマイズを可能にする。
しかしながら、sw-hwのコ・デザインは「コールド・スタート」問題として知られるヒューリスティックな知識を使わないため、伝統的に最適化速度が遅い。
本研究では,Large Language Models (LLM) を用いてこの問題に対処する手法を提案する。
協調設計最適化プロセスにおける事前学習 LLM の豊富な知識を利用することで、コールドスタート問題を効果的に回避し、設計プロセスを大幅に加速する。
提案手法は25倍の高速化を実現する。
この進歩は、エッジデバイスへのDNNの迅速かつ効率的な展開の道を開く。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - AutoHLS: Learning to Accelerate Design Space Exploration for HLS Designs [10.690389829735661]
本稿では,深層ニューラルネットワーク(DNN)とベイズ最適化(BO)を統合してHLSハードウェア設計最適化を高速化する,AutoHLSという新しいフレームワークを提案する。
実験の結果,探索時間の70倍のスピードアップが得られた。
論文 参考訳(メタデータ) (2024-03-15T21:14:44Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - MetaML: Automating Customizable Cross-Stage Design-Flow for Deep
Learning Acceleration [5.2487252195308844]
本稿では,ディープニューラルネットワーク(DNN)ハードウェアアクセラレータのための新しい最適化フレームワークを提案する。
設計フローアーキテクチャ構築のための新しい最適化と変換タスクを導入する。
以上の結果から,DSP使用率92%,LUT使用率89%の大幅な削減が得られた。
論文 参考訳(メタデータ) (2023-06-14T21:06:07Z) - DeepAxe: A Framework for Exploration of Approximation and Reliability
Trade-offs in DNN Accelerators [0.9556128246747769]
安全クリティカルなアプリケーションにおけるディープニューラルネットワーク(DNN)の役割は拡大している。
DNNは計算能力の面で大きく成長している。
これは、DNNアクセラレーターの信頼性を向上させる必要性を高める。
論文 参考訳(メタデータ) (2023-03-14T20:42:38Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - CoSA: Scheduling by Constrained Optimization for Spatial Accelerators [1.9149970150912705]
我々は、Deep Neural Networks(DNN)アクセラレーターをスケジューリングするための制約最適化に基づくアプローチであるCoSAを提案する。
探索空間をナビゲートするデザイナの手法や反復的な手法に依存する既存のアプローチとは対照的に、CoSAはスケジューリング決定を制約最適化問題として表現している。
CoSA生成スケジュールは、最大2.5xの幾何学平均で最先端のアプローチを大幅に上回ることを実証します。
論文 参考訳(メタデータ) (2021-05-05T07:17:25Z) - HAPI: Hardware-Aware Progressive Inference [18.214367595727037]
畳み込みニューラルネットワーク(CNN)は最近、AIタスクの多様性における最先端技術となっている。
その人気にもかかわらず、CNN推論は依然として高い計算コストがかかる。
本研究は,ハイパフォーマンス・アーリーエグジット・ネットワークを創出するための新しい手法であるHAPIを提案する。
論文 参考訳(メタデータ) (2020-08-10T09:55:18Z) - Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning
and Compiler Optimization [56.3111706960878]
ハイエンドなモバイルプラットフォームは、幅広いDeep Neural Network (DNN)アプリケーションのための主要なコンピューティングデバイスとして機能する。
これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムの推論実行に重大な課題をもたらす。
モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-22T03:18:23Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。