論文の概要: DEAP: Design Space Exploration for DNN Accelerator Parallelism
- arxiv url: http://arxiv.org/abs/2312.15388v1
- Date: Sun, 24 Dec 2023 02:43:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 18:13:48.490449
- Title: DEAP: Design Space Exploration for DNN Accelerator Parallelism
- Title(参考訳): DEAP: DNN加速器並列化のための設計空間探索
- Authors: Ekansh Agrawal and Xiangyu Sam Xu
- Abstract要約: 大規模言語モデル(LLM)はますます複雑で、訓練やサービスにも強力になっています。
本稿では、ハードウェアとソフトウェアの共同設計がどのように連携し、カスタマイズされたハードウェアシステムを構築するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The boom in Large Language Models (LLMs) like GPT-4 and ChatGPT has marked a
significant advancement in artificial intelligence. These models are becoming
increasingly complex and powerful to train and serve. This growth in
capabilities comes with a substantial increase in computational requirements,
both in terms of hardware resources and energy consumption. The goal of this
paper is to showcase how hardware and software co-design can come together and
allow us to create customized hardware systems for specific LLM workloads. We
propose a simulation workflow that allows us to combine model parallelism
techniques with a multi-accelerator simulation framework for efficiency
metrics. We focus on inference workloads and report power, cycle, and latency
metrics upon performing a design space exploration search over multiple
software and hardware configurations.
- Abstract(参考訳): GPT-4やChatGPTのようなLarge Language Models(LLMs)のブームは、人工知能に大きな進歩をもたらした。
これらのモデルはますます複雑で、訓練やサービスに力を入れている。
この能力の伸びは、ハードウェアリソースとエネルギー消費の両面で、計算要求の大幅な増加をもたらす。
本稿の目標は,ハードウェアとソフトウェアの共同設計がどのように実現され,特定のllmワークロード用にカスタマイズされたハードウェアシステムを構築することができるかを示すことである。
本稿では,モデル並列化手法と効率メトリクスのためのマルチアクセラレータシミュレーションフレームワークを組み合わせたシミュレーションワークフローを提案する。
複数のソフトウェアおよびハードウェア構成に対して設計スペース探索を行う際に、推論ワークロードとレポートパワー、サイクル、遅延メトリクスに焦点を当てる。
関連論文リスト
- Performance and Power: Systematic Evaluation of AI Workloads on Accelerators with CARAML [0.0]
CARAMLベンチマークスイートは、大規模言語モデルとコンピュータビジョンモデルのトレーニング中のパフォーマンスとエネルギー消費を評価するために使用される。
CarAMLは、MLワークロードのパフォーマンスとエネルギを評価するための、コンパクトで、自動化され、再現可能なフレームワークを提供する。
論文 参考訳(メタデータ) (2024-09-19T12:43:18Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Waymax: An Accelerated, Data-Driven Simulator for Large-Scale Autonomous
Driving Research [76.93956925360638]
Waymaxは、マルチエージェントシーンにおける自動運転のための新しいデータ駆動シミュレータである。
TPU/GPUなどのハードウェアアクセラレータで完全に動作し、トレーニング用のグラフ内シミュレーションをサポートする。
我々は、一般的な模倣と強化学習アルゴリズムのスイートをベンチマークし、異なる設計決定に関するアブレーション研究を行った。
論文 参考訳(メタデータ) (2023-10-12T20:49:15Z) - In Situ Framework for Coupling Simulation and Machine Learning with
Application to CFD [51.04126395480625]
近年、流体力学計算を容易にする機械学習(ML)の多くの成功例が報告されている。
シミュレーションが大きくなるにつれて、従来のオフライン学習のための新しいトレーニングデータセットの生成は、I/Oとストレージのボトルネックを生み出します。
この作業は、この結合を単純化し、異種クラスタでのその場トレーニングと推論を可能にするソリューションを提供する。
論文 参考訳(メタデータ) (2023-06-22T14:07:54Z) - Chakra: Advancing Performance Benchmarking and Co-design using
Standardized Execution Traces [5.692357167709513]
作業負荷仕様を標準化するためのオープングラフスキーマであるChakraを提案する。
例えば、生成AIモデルを使用して、何千ものChakra ETの潜在統計特性を学習し、これらのモデルを使用してChakra ETを合成します。
私たちのゴールは、将来のAIシステムの共同設計を推進するために、業界全体のアジャイルベンチマークとツールの活発なエコシステムを構築することです。
論文 参考訳(メタデータ) (2023-05-23T20:45:45Z) - A Scalable Approach to Modeling on Accelerated Neuromorphic Hardware [0.0]
この研究は、物理モデリングに基づくハイブリッドアクセラレーション型ニューロモルフィックハードウェアアーキテクチャであるBrainScaleS-2システムのソフトウェア側面を示す。
本稿では,BrainScaleS-2オペレーティングシステム(実験ワークフロー,API階層化,ソフトウェア設計,プラットフォーム操作)のキーとなる側面を紹介する。
焦点は、マルチコンポーネントニューロン、ハードウェア・イン・ザ・ループトレーニングのための高速な再構成、組み込みプロセッサのアプリケーション、非スパイキング操作モード、インタラクティブなプラットフォームアクセス、持続可能なハードウェア/ソフトウェアの共同開発など、新しいシステムとソフトウェア機能である。
論文 参考訳(メタデータ) (2022-03-21T16:30:18Z) - Compiler-Driven Simulation of Reconfigurable Hardware Accelerators [0.8807375890824978]
既存のシミュレータは、RTLシミュレーションのような低レベルのアプローチと一般的なアプローチの2つの極端である。
本研究は,ハードウェアアクセラレータをモデル化可能なコンパイラ駆動シミュレーションワークフローを提案する。
論文 参考訳(メタデータ) (2022-02-01T20:31:04Z) - JUWELS Booster -- A Supercomputer for Large-Scale AI Research [79.02246047353273]
本稿では、最近J'ulich Supercomputing Centerに委託された高性能コンピューティングシステムであるJUWELS Boosterを紹介する。
システムアーキテクチャ、並列性、分散モデルトレーニング、その優れたパフォーマンスを示すベンチマークについて詳述する。
論文 参考訳(メタデータ) (2021-06-30T21:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。