論文の概要: ScalableHD: Scalable and High-Throughput Hyperdimensional Computing Inference on Multi-Core CPUs
- arxiv url: http://arxiv.org/abs/2506.09282v1
- Date: Tue, 10 Jun 2025 22:46:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:02.137059
- Title: ScalableHD: Scalable and High-Throughput Hyperdimensional Computing Inference on Multi-Core CPUs
- Title(参考訳): ScalableHD:マルチコアCPU上でのスケーラブルで高速な超次元計算推論
- Authors: Dhruv Parikh, Viktor Prasanna,
- Abstract要約: ハイパーベクター(HV)という,高次元ベクトルを用いた情報表現と操作
従来のHDC法はシングルパスの非パラメトリックトレーニングに依存しており、しばしば低い精度で悩まされる。
しかし、推論は軽量であり、リアルタイム実行に適している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hyperdimensional Computing (HDC) is a brain-inspired computing paradigm that represents and manipulates information using high-dimensional vectors, called hypervectors (HV). Traditional HDC methods, while robust to noise and inherently parallel, rely on single-pass, non-parametric training and often suffer from low accuracy. To address this, recent approaches adopt iterative training of base and class HVs, typically accelerated on GPUs. Inference, however, remains lightweight and well-suited for real-time execution. Yet, efficient HDC inference has been studied almost exclusively on specialized hardware such as FPGAs and GPUs, with limited attention to general-purpose multi-core CPUs. To address this gap, we propose ScalableHD for scalable and high-throughput HDC inference on multi-core CPUs. ScalableHD employs a two-stage pipelined execution model, where each stage is parallelized across cores and processes chunks of base and class HVs. Intermediate results are streamed between stages using a producer-consumer mechanism, enabling on-the-fly consumption and improving cache locality. To maximize performance, ScalableHD integrates memory tiling and NUMA-aware worker-to-core binding. Further, it features two execution variants tailored for small and large batch sizes, each designed to exploit compute parallelism based on workload characteristics while mitigating the memory-bound compute pattern that limits HDC inference performance on modern multi-core CPUs. ScalableHD achieves up to 10x speedup in throughput (samples per second) over state-of-the-art baselines such as TorchHD, across a diverse set of tasks ranging from human activity recognition to image classification, while preserving task accuracy. Furthermore, ScalableHD exhibits robust scalability: increasing the number of cores yields near-proportional throughput improvements.
- Abstract(参考訳): 超次元コンピューティング(Hyperdimensional Computing、HDC)は、高次元ベクトル(Hypervectors、HV)と呼ばれる高次元ベクトルを用いて情報を表現し、操作する脳にインスパイアされたコンピューティングパラダイムである。
従来のHDC法は、ノイズに頑丈で本質的に並列であるが、シングルパスの非パラメトリックトレーニングに依存しており、しばしば低い精度で悩まされる。
これを解決するために、最近のアプローチでは、一般的にGPU上で加速されるベースとクラスHVの反復的なトレーニングを採用している。
しかし、推論は軽量であり、リアルタイム実行に適している。
しかし、効率的なHDC推論はFPGAやGPUなどの専用ハードウェアで研究されており、汎用マルチコアCPUに限定されている。
このギャップに対処するため,マルチコアCPU上でのスケーラブルかつ高スループットHDC推論のためのScalableHDを提案する。
ScalableHDは2段階のパイプライン実行モデルを採用しており、各ステージはコアに並列化され、ベースとクラスHVのチャンクが処理される。
中間結果はプロデューサとコンシューマのメカニズムを使ってステージ間でストリームされ、オンザフライでの消費を可能にし、キャッシュの局所性を改善する。
パフォーマンスを最大化するために、ScalableHDはメモリタイリングとNUMA対応のワーカツーコアバインディングを統合している。
さらに、小さなバッチサイズと大規模なバッチサイズ用に調整された2つの実行変種が特徴で、それぞれがワークロード特性に基づいて計算並列性を活用するように設計されており、現代のマルチコアCPUでのHDC推論性能を制限するメモリバウンド計算パターンを緩和している。
ScalableHDは、TorchHDのような最先端のベースラインに対して、人間のアクティビティ認識から画像分類まで、タスクの正確性を維持しながら、最大10倍のスループット(秒単位のサンプル)を達成する。
さらに、ScalableHDは堅牢なスケーラビリティを示している。
関連論文リスト
- DPQ-HD: Post-Training Compression for Ultra-Low Power Hyperdimensional Computing [6.378578005171813]
ポストトレーニング圧縮アルゴリズムDPQ-HD(Decomposition-Pruning-Quantization)を提案する。
DPQ-HDは上記の3つの圧縮技法を一意に組み合わせることで計算とメモリのオーバーヘッドを低減する。
DPQ-HDは1-2%の精度で画像およびグラフ分類タスクの最大20-100倍のメモリ削減を実現している。
論文 参考訳(メタデータ) (2025-05-08T16:54:48Z) - DSV: Exploiting Dynamic Sparsity to Accelerate Large-Scale Video DiT Training [85.04885553561164]
Diffusion Transformer (DiTs) は高品質なビデオの生成において顕著な性能を示した。
DiTは処理時間の95%を消費し、特別なコンテキスト並列性を要求する。
本稿では,経験的に観察したダイナミックアテンション空間を利用して,DSVによるビデオDiTトレーニングを高速化する手法を提案する。
論文 参考訳(メタデータ) (2025-02-11T14:39:59Z) - HRVMamba: High-Resolution Visual State Space Model for Dense Prediction [60.80423207808076]
効率的なハードウェアを意識した設計のステートスペースモデル(SSM)は、コンピュータビジョンタスクにおいて大きな可能性を証明している。
これらのモデルは、誘導バイアスの不足、長距離の忘れ、低解像度の出力表現の3つの主要な課題によって制約されている。
本稿では, 変形可能な畳み込みを利用して, 長距離忘れ問題を緩和する動的ビジュアル状態空間(DVSS)ブロックを提案する。
また,DVSSブロックに基づく高分解能視覚空間モデル(HRVMamba)を導入し,プロセス全体を通して高分解能表現を保存する。
論文 参考訳(メタデータ) (2024-10-04T06:19:29Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - HDCC: A Hyperdimensional Computing compiler for classification on
embedded systems and high-performance computing [58.720142291102135]
この研究は、HDC分類メソッドの高レベルな記述を最適化されたCコードに変換する最初のオープンソースコンパイラである、ネームコンパイラを紹介している。
nameは現代のコンパイラのように設計されており、直感的で記述的な入力言語、中間表現(IR)、再ターゲット可能なバックエンドを備えている。
これらの主張を裏付けるために,HDC文献で最もよく使われているデータセットについて,HDCCを用いて実験を行った。
論文 参考訳(メタデータ) (2023-04-24T19:16:03Z) - HDTorch: Accelerating Hyperdimensional Computing with GP-GPUs for Design
Space Exploration [4.783565770657063]
我々は、ハイパーベクタ操作の拡張を備えたPyTorchベースのオープンソースのHDCライブラリであるHDTorchを紹介する。
我々は4つのHDCベンチマークデータセットを精度、実行時間、メモリ消費の観点から分析する。
我々はCHB-MIT脳波てんかんデータベース全体のHDトレーニングと推測分析を行った。
論文 参考訳(メタデータ) (2022-06-09T19:46:08Z) - Adaptive Elastic Training for Sparse Deep Learning on Heterogeneous
Multi-GPU Servers [65.60007071024629]
本稿では,Adaptive SGDが4つの最先端ソリューションよりも精度が高いことを示す。
本稿では,Adaptive SGDが時間と精度で4つの最先端ソリューションより優れていることを示す。
論文 参考訳(メタデータ) (2021-10-13T20:58:15Z) - SHEARer: Highly-Efficient Hyperdimensional Computing by
Software-Hardware Enabled Multifold Approximation [7.528764144503429]
我々は,HDコンピューティングの性能とエネルギー消費を改善するアルゴリズム-ハードウェア協調最適化であるSHEARerを提案する。
SHEARerは104,904x (15.7x)のスループット向上と56,044x (301x)の省エネを実現している。
また,提案した近似符号化をエミュレートすることで,HDモデルのトレーニングを可能にするソフトウェアフレームワークを開発した。
論文 参考訳(メタデータ) (2020-07-20T07:58:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。