論文の概要: Mind the Gap: Revealing Inconsistencies Across Heterogeneous AI Accelerators
- arxiv url: http://arxiv.org/abs/2511.11601v1
- Date: Thu, 30 Oct 2025 21:31:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.27604
- Title: Mind the Gap: Revealing Inconsistencies Across Heterogeneous AI Accelerators
- Title(参考訳): マインド・ザ・ギャップ(Mind the Gap) - 異種AI加速器間の不整合を明らかにする
- Authors: Elliott Wen, Sean Ma, Ewan Tempero, Jens Dietrich, Daniel Luo, Jiaxing Shen, Kaiqi Zhao, Bruce Sham, Yousong Song, Jiayi Hua, Jia Hong,
- Abstract要約: NVIDIAは依然として、クラウドデータセンター内のAIアクセラレーターの主要なプロバイダーである。
AMD、Intel、Mac、Huaweiといった新興ベンダーは、互換性とパフォーマンスの主張を伴う費用対効果の代替手段を提供している。
本稿では、異種AIアクセラレーター間の機械学習モデルのばらつきを調査する最初の実証的研究について述べる。
- 参考スコア(独自算出の注目度): 5.852509107627096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While NVIDIA remains the dominant provider of AI accelerators within cloud data center, emerging vendors such as AMD, Intel, Mac, and Huawei offer cost-effective alternatives with claims of compatibility and performance. This paper presents the first empirical study investigating divergence in machine learning model across heterogeneous AI accelerators. Utilizing an automated pipeline, we synthesize over 100,000 variant models derived from 4,000 real-world models and execute them across five different enterprise-grade accelerators. Our findings suggest that newer AI platforms from Mac and Huawei support at least 17\% fewer operators than NVIDIA. These platforms also exhibit a higher rate of output discrepancies (exceeding 5\%), which stem from differences in operator implementations, handling of exceptional numerical values, and instruction scheduling. They are also more susceptible to failures during model compilation-based acceleration, and in some cases, the compiled models produce outputs that differ noticeably from those generated using the standard execution mode. In addition, we identify 7 implementation flaws in PyTorch and 40 platform-specific issues across vendors. These results underscore the challenges of achieving consistent machine learning behavior in an increasingly diverse hardware ecosystem.
- Abstract(参考訳): NVIDIAは依然としてクラウドデータセンター内のAIアクセラレーターの主要なプロバイダーだが、AMD、Intel、Mac、Huaweiといった新興ベンダーは、互換性とパフォーマンスの主張で費用対効果の高い代替手段を提供している。
本稿では、異種AIアクセラレーター間の機械学習モデルのばらつきを調査する最初の実証的研究について述べる。
自動パイプラインを利用することで、4000の現実世界モデルから派生した10,000以上の変種モデルを合成し、5つの異なるエンタープライズグレードアクセラレータでそれらを実行します。
この結果は、MacとHuaweiの新しいAIプラットフォームがNVIDIAよりも少なくとも17倍少ない演算子をサポートしていることを示唆している。
これらのプラットフォームは、演算子の実装の違い、例外的な数値の扱い、命令スケジューリングから生じる出力の差(5倍)も高い。
また、モデルコンパイルベースのアクセラレーションの失敗の影響を受けやすく、場合によっては、コンパイルされたモデルが標準実行モードで生成されたものと顕著に異なる出力を生成する。
さらに、PyTorchの7つの実装欠陥と、ベンダー間で40のプラットフォーム固有の問題を特定します。
これらの結果は、ますます多様なハードウェアエコシステムにおいて、一貫した機械学習の動作を達成するという課題を浮き彫りにしている。
関連論文リスト
- Accelerating Local AI on Consumer GPUs: A Hardware-Aware Dynamic Strategy for YOLOv10s [0.0]
アーキテクチャ変更を必要としないモデル非依存のアプローチであるTwo-Pass Adaptive Inferenceアルゴリズムを導入する。
5000イメージのCOCOデータセット上では、PyTorch Early-Exitベースラインの1.85倍の高速化を実現し、mAP損失は5.51%である。
論文 参考訳(メタデータ) (2025-09-09T17:13:31Z) - Exploring the Dynamic Scheduling Space of Real-Time Generative AI Applications on Emerging Heterogeneous Systems [0.9041154551329587]
リアルタイム生成AI(RTGen)ワークロードは、生成モデルの計算強度と動的実行パターンと、リアルタイム推論の制約とを結合する。
現代のエッジプラットフォームでは、不均一なSystem-on-chip(SoC)アーキテクチャが採用されている。
スケジューリング決定がワークロードのパフォーマンスに大きく影響することを示します。
論文 参考訳(メタデータ) (2025-07-19T18:24:11Z) - Satori-SWE: Evolutionary Test-Time Scaling for Sample-Efficient Software Engineering [51.7496756448709]
言語モデル(LM)は、コーディングベンチマークではうまく機能するが、現実のソフトウェア工学のタスクでは苦労する。
既存のアプローチは、高品質なデータによる教師付き微調整に依存している。
本研究では, 生成を進化過程として扱うサンプル効率の高い手法であるテスト時間スケーリング(EvoScale)を提案する。
論文 参考訳(メタデータ) (2025-05-29T16:15:36Z) - Using the Abstract Computer Architecture Description Language to Model
AI Hardware Accelerators [77.89070422157178]
AI統合製品の製造者は、製品のパフォーマンス要件に適合するアクセラレータを選択するという、重大な課題に直面します。
抽象コンピュータアーキテクチャ記述言語(ACADL)は、コンピュータアーキテクチャブロック図の簡潔な形式化である。
本稿では,AIハードウェアアクセラレーションのモデル化にACADLを用いること,DNNのマッピングにACADL記述を使用し,タイミングシミュレーションのセマンティクスを解説し,性能評価結果の収集を行う。
論文 参考訳(メタデータ) (2024-01-30T19:27:16Z) - Exploring Robustness of Image Recognition Models on Hardware Accelerators [2.379078565066793]
MutateNNは、画像認識モデルの堅牢性を調べるために、差分テストと突然変異テストの両方の要素を利用するツールである。
画像認識領域は、7つの確立されたDNNモデルに突然変異試験を適用し、6つの異なるカテゴリの21の突然変異を導入し、画像認識領域に焦点をあてる。
その結果, 層修飾, 算術型, 入力に関連する変異が全体のモデル性能(最大99.8%)に深刻な影響を及ぼすか, あるいはモデルクラッシュを引き起こした。
論文 参考訳(メタデータ) (2023-06-02T17:15:19Z) - Cheaply Evaluating Inference Efficiency Metrics for Autoregressive
Transformer APIs [66.30706841821123]
大規模言語モデル(LLM)は、自然言語処理において多くの最先端システムに電力を供給する。
LLMは、推論時でさえ非常に計算コストが高い。
モデル間での推論効率を比較するための新しい指標を提案する。
論文 参考訳(メタデータ) (2023-05-03T21:51:42Z) - NeuRI: Diversifying DNN Generation via Inductive Rule Inference [16.463237407360594]
NeuRIは、有効な多様なディープラーニングモデルを生成するための、完全に自動化されたアプローチである。
NeuRIは、最先端のモデルレベルのファザよりも、PyTorchのブランチカバレッジを24%と15%改善する。
論文 参考訳(メタデータ) (2023-02-04T23:42:07Z) - A Generative Approach for Production-Aware Industrial Network Traffic
Modeling [70.46446906513677]
ドイツにあるTrumpf工場に配備されたレーザー切断機から発生するネットワークトラフィックデータについて検討した。
我々は、トラフィック統計を分析し、マシンの内部状態間の依存関係をキャプチャし、ネットワークトラフィックを生産状態依存プロセスとしてモデル化する。
可変オートエンコーダ(VAE)、条件付き可変オートエンコーダ(CVAE)、生成逆ネットワーク(GAN)など、様々な生成モデルの性能の比較を行った。
論文 参考訳(メタデータ) (2022-11-11T09:46:58Z) - ProcTHOR: Large-Scale Embodied AI Using Procedural Generation [55.485985317538194]
ProcTHORは、Embodied AI環境の手続き的生成のためのフレームワークである。
ナビゲーション、アレンジメント、アーム操作のための6つの具体化されたAIベンチマークに対して、最先端の結果を実証する。
論文 参考訳(メタデータ) (2022-06-14T17:09:35Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - AIPerf: Automated machine learning as an AI-HPC benchmark [17.57686674304368]
自動機械学習(AutoML)を利用したエンドツーエンドベンチマークスイートを提案する。
アルゴリズムを並列かつ柔軟な方法で実装し、多様なシステムにおける効率性と最適化の可能性を保証する。
フレキシブルなワークロードと単一のメトリックによって、私たちのベンチマークはAI-HPCのスケールとランク付けが容易になります。
論文 参考訳(メタデータ) (2020-08-17T08:06:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。