論文の概要: The Role of Advanced Computer Architectures in Accelerating Artificial Intelligence Workloads
- arxiv url: http://arxiv.org/abs/2511.10010v1
- Date: Fri, 14 Nov 2025 01:25:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-14 22:53:22.637202
- Title: The Role of Advanced Computer Architectures in Accelerating Artificial Intelligence Workloads
- Title(参考訳): 人工知能ワークロードの高速化における先進的コンピュータアーキテクチャの役割
- Authors: Shahid Amin, Syed Pervez Hussnain Shah,
- Abstract要約: 人工知能(AI)の顕著な進歩は、コンピュータアーキテクチャにおける同時革命と基礎的に結びついている。
AIモデル、特にDeep Neural Networks(DNN)が複雑化するにつれ、その膨大な計算要求により、従来のアーキテクチャは限界に達している。
本稿では、現代のAIワークロードを加速するために設計されたアーキテクチャのランドスケープを分析し、この共進化の構造化されたレビューを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The remarkable progress in Artificial Intelligence (AI) is foundation-ally linked to a concurrent revolution in computer architecture. As AI models, particularly Deep Neural Networks (DNNs), have grown in complexity, their massive computational demands have pushed traditional architectures to their limits. This paper provides a structured review of this co-evolution, analyzing the architectural landscape designed to accelerate modern AI workloads. We explore the dominant architectural paradigms Graphics Processing Units (GPUs), Appli-cation-Specific Integrated Circuits (ASICs), and Field-Programmable Gate Ar-rays (FPGAs) by breaking down their design philosophies, key features, and per-formance trade-offs. The core principles essential for performance and energy efficiency, including dataflow optimization, advanced memory hierarchies, spar-sity, and quantization, are analyzed. Furthermore, this paper looks ahead to emerging technologies such as Processing-in-Memory (PIM) and neuromorphic computing, which may redefine future computation. By synthesizing architec-tural principles with quantitative performance data from industry-standard benchmarks, this survey presents a comprehensive picture of the AI accelerator landscape. We conclude that AI and computer architecture are in a symbiotic relationship, where hardware-software co-design is no longer an optimization but a necessity for future progress in computing.
- Abstract(参考訳): 人工知能(AI)の顕著な進歩は、コンピュータアーキテクチャにおける同時革命と基礎的に結びついている。
AIモデル、特にDeep Neural Networks(DNN)が複雑化するにつれ、その膨大な計算要求により、従来のアーキテクチャは限界に達している。
本稿では、現代のAIワークロードを高速化するために設計されたアーキテクチャのランドスケープを分析し、この共進化の構造化されたレビューを提供する。
我々は、グラフィクス処理ユニット(GPU)、FPGA(Appli-cation-Specific Integrated Circuits)、FPGA(Field-Programmable Gate Ar-rays)といった主要なアーキテクチャパラダイムについて、設計哲学、鍵となる特徴、パフォーマンスごとのトレードオフを分解することによって検討する。
データフロー最適化、高度なメモリ階層、スパーシティ、量子化など、パフォーマンスとエネルギー効率に不可欠な基本原理を解析する。
さらに,PIM (Processing-in-Memory) やニューロモルフィックコンピューティング(Neuromorphic Computing)といった先進的な技術にも注目する。
業界標準ベンチマークの量的パフォーマンスデータを用いて考古学的戦術原則を合成することにより、この調査はAIアクセラレータの展望を包括的に表現する。
我々は、AIとコンピュータアーキテクチャは共生関係にあると結論付け、ハードウェアとソフトウェアの共同設計はもはや最適化ではなく、将来のコンピューティングの進歩に必要なものである。
関連論文リスト
- Edge-Cloud Collaborative Computing on Distributed Intelligence and Model Optimization: A Survey [58.50944604905037]
エッジクラウドコラボレーティブコンピューティング(ECCC)は、現代のインテリジェントアプリケーションの計算要求に対処するための重要なパラダイムとして登場した。
AIの最近の進歩、特にディープラーニングと大規模言語モデル(LLM)は、これらの分散システムの能力を劇的に向上させてきた。
この調査は、基本的なアーキテクチャ、技術の実現、新しいアプリケーションに関する構造化されたチュートリアルを提供する。
論文 参考訳(メタデータ) (2025-05-03T13:55:38Z) - Inference Optimization of Foundation Models on AI Accelerators [68.24450520773688]
トランスフォーマーアーキテクチャを備えた大規模言語モデル(LLM)を含む強力な基礎モデルは、ジェネレーティブAIの新たな時代を支えている。
モデルパラメータの数が数十億に達すると、実際のシナリオにおける推論コストと高いレイテンシーが排除される。
このチュートリアルでは、AIアクセラレータを用いた補完推論最適化テクニックに関する包括的な議論を行っている。
論文 参考訳(メタデータ) (2024-07-12T09:24:34Z) - Mechanistic Design and Scaling of Hybrid Architectures [114.3129802943915]
我々は、様々な計算プリミティブから構築された新しいハイブリッドアーキテクチャを特定し、テストする。
本研究では,大規模計算最適法則と新しい状態最適スケーリング法則解析を用いて,結果のアーキテクチャを実験的に検証する。
我々は,MAD合成法と計算-最適パープレキシティを相関させ,新しいアーキテクチャの正確な評価を可能にする。
論文 参考訳(メタデータ) (2024-03-26T16:33:12Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Evaluating Emerging AI/ML Accelerators: IPU, RDU, and NVIDIA/AMD GPUs [14.397623940689487]
Graphcore Intelligence Processing Unit (IPU)、Sambanova Reconfigurable Dataflow Unit (RDU)、拡張GPUプラットフォームについてレビューする。
この研究は、これらの商用AI/MLアクセラレータの予備評価と比較を提供する。
論文 参考訳(メタデータ) (2023-11-08T01:06:25Z) - Convergence of Artificial Intelligence and High Performance Computing on
NSF-supported Cyberinfrastructure [3.4291439418246177]
人工知能(AI)アプリケーションは、産業や技術におけるビッグデータの課題に対して、トランスフォーメーションソリューションを推進している。
AIは、統計的および数学的厳密性を備えたコンピューティングパラダイムへと進化し続けており、トレーニング、検証、テストのためのシングルGPUソリューションがもはや不十分であることが明らかになっている。
この実現により、AIとハイパフォーマンスコンピューティングの融合が加速し、監視時間の短縮が図られている。
論文 参考訳(メタデータ) (2020-03-18T18:00:02Z) - CAAI -- A Cognitive Architecture to Introduce Artificial Intelligence in
Cyber-Physical Production Systems [1.5701326192371183]
CAAIは、サイバー物理生産システムにおける人工知能の認知アーキテクチャである。
CAAIの中核は、ユーザの宣言的な目標を処理する認知モジュールである。
パイプラインの性能を評価する性能基準に対する一定の観察と評価を行う。
論文 参考訳(メタデータ) (2020-02-26T16:27:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。