論文の概要: Accelerating HDC-CNN Hybrid Models Using Custom Instructions on RISC-V GPUs
- arxiv url: http://arxiv.org/abs/2511.05053v1
- Date: Fri, 07 Nov 2025 07:50:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-10 21:00:44.707333
- Title: Accelerating HDC-CNN Hybrid Models Using Custom Instructions on RISC-V GPUs
- Title(参考訳): RISC-V GPUのカスタム命令を用いたHDC-CNNハイブリッドモデルの高速化
- Authors: Wakuto Matsumi, Riaz-Ul-Haque Mian,
- Abstract要約: ニューラルネットワークに基づく機械学習は急速に進歩しているが、トレーニングや推論に必要な高エネルギー消費は依然として大きな課題である。
これを解決するためにHDCとCNNを組み合わせたハイブリッドアクセラレータが提案されている。
本研究では,HDC操作に最適化されたGPU命令を設計,実装し,ハイブリッドHDC-CNNワークロードの効率的な処理を可能にする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning based on neural networks has advanced rapidly, but the high energy consumption required for training and inference remains a major challenge. Hyperdimensional Computing (HDC) offers a lightweight, brain-inspired alternative that enables high parallelism but often suffers from lower accuracy on complex visual tasks. To overcome this, hybrid accelerators combining HDC and Convolutional Neural Networks (CNNs) have been proposed, though their adoption is limited by poor generalizability and programmability. The rise of open-source RISC-V architectures has created new opportunities for domain-specific GPU design. Unlike traditional proprietary GPUs, emerging RISC-V-based GPUs provide flexible, programmable platforms suitable for custom computation models such as HDC. In this study, we design and implement custom GPU instructions optimized for HDC operations, enabling efficient processing for hybrid HDC-CNN workloads. Experimental results using four types of custom HDC instructions show a performance improvement of up to 56.2 times in microbenchmark tests, demonstrating the potential of RISC-V GPUs for energy-efficient, high-performance computing.
- Abstract(参考訳): ニューラルネットワークに基づく機械学習は急速に進歩しているが、トレーニングや推論に必要な高エネルギー消費は依然として大きな課題である。
超次元コンピューティング(HDC)は、高並列性を実現する軽量で脳にインスパイアされた代替手段を提供する。
これを解決するために、HDCと畳み込みニューラルネットワーク(CNN)を組み合わせたハイブリッドアクセラレータが提案されている。
オープンソースのRISC-Vアーキテクチャの台頭は、ドメイン固有のGPU設計の新しい機会を生み出した。
従来のプロプライエタリなGPUとは異なり、RISC-VベースのGPUはHDCのようなカスタム計算モデルに適したフレキシブルでプログラム可能なプラットフォームを提供する。
本研究では,HDC操作に最適化されたGPU命令を設計,実装し,ハイブリッドHDC-CNNワークロードの効率的な処理を可能にする。
4種類のカスタムHDC命令を用いた実験結果は、マイクロベンチマークテストで最大56.2倍の性能向上を示し、エネルギー効率、高性能コンピューティングにおけるRISC-VGPUの可能性を示している。
関連論文リスト
- Distributed Equivariant Graph Neural Networks for Large-Scale Electronic Structure Prediction [76.62155593340763]
密度汎関数理論(DFT)データに基づいて訓練された等価グラフニューラルネットワーク(eGNN)は、前例のない規模で電子構造予測を行う可能性がある。
しかし、このタスクに必要なグラフ表現は密結合である傾向がある。
本稿では,直接GPU通信を利用する分散eGNNの実装と,入力グラフの分割戦略を提案する。
論文 参考訳(メタデータ) (2025-07-04T23:53:47Z) - QuartDepth: Post-Training Quantization for Real-Time Depth Estimation on the Edge [55.75103034526652]
ASIC のハードウェアアクセラレーションによる MDE モデルの定量化を後学習量子化に応用した QuartDepth を提案する。
提案手法では,重みとアクティベーションの両方を4ビット精度で定量化し,モデルサイズと計算コストを削減する。
我々は、カーネル融合とカスタマイズされた命令プログラム性をサポートすることにより、フレキシブルでプログラム可能なハードウェアアクセラレータを設計する。
論文 参考訳(メタデータ) (2025-03-20T21:03:10Z) - Multi-GPU RI-HF Energies and Analytic Gradients $-$ Towards High Throughput Ab Initio Molecular Dynamics [0.0]
本稿では,複数グラフィクス処理ユニット(GPU)を用いた高次ハートリー・フォックエネルギーと解析勾配の解法を最適化したアルゴリズムと実装を提案する。
このアルゴリズムは特に、中小分子(10-100原子)の高スループット初期分子動力学シミュレーションのために設計されている。
論文 参考訳(メタデータ) (2024-07-29T00:14:10Z) - HDReason: Algorithm-Hardware Codesign for Hyperdimensional Knowledge
Graph Reasoning [18.790512589967875]
軽量機械学習のための有望なソリューションとして、ブレインインスパイアされた超次元コンピューティング(HDC)が導入された。
本稿では,HDCを,本質的により効率的でアクセラレーションに親しみやすい知識グラフ補完(KGC)アルゴリズムに活用する。
また、FPGAプラットフォームをターゲットにしたHDReasonというアクセラレーションフレームワークを共同設計しました。
論文 参考訳(メタデータ) (2024-03-09T02:17:43Z) - Towards Efficient Hyperdimensional Computing Using Photonics [15.975464191800773]
超次元コンピューティング(Hyperdimensional Computing、HDC)は、脳にインスパイアされた機械学習技術である。
本稿では,フォトニックコンピューティングとHDCが,フォトニックコンピューティングとディープニューラルネットワーク(DNN)よりも補完的であることを論じる。
我々は、HDCトレーニングと推論のための最初の電子フォトニック加速器であるPhotoHDCを提案する。
論文 参考訳(メタデータ) (2023-11-29T16:51:21Z) - FusionAI: Decentralized Training and Deploying LLMs with Massive
Consumer-Level GPUs [57.12856172329322]
我々は、巨大な未使用のコンシューマレベルのGPUをアンロックする分散システムを構想する。
このシステムは、CPUとGPUメモリの制限、ネットワーク帯域幅の低さ、ピアとデバイスの多様性など、重要な課題に直面している。
論文 参考訳(メタデータ) (2023-09-03T13:27:56Z) - Reconfigurable Distributed FPGA Cluster Design for Deep Learning
Accelerators [59.11160990637615]
エッジコンピューティングアプリケーション用に設計された低消費電力組み込みFPGAに基づく分散システムを提案する。
提案システムは,様々なニューラルネットワーク(NN)モデルを同時に実行し,パイプライン構造にグラフを配置し,NNグラフの最も計算集約的な層により大きなリソースを手動で割り当てる。
論文 参考訳(メタデータ) (2023-05-24T16:08:55Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - The Architectural Implications of Distributed Reinforcement Learning on
CPU-GPU Systems [45.479582612113205]
CPU-GPUシステムにおけるRLトレーニングの性能と電力効率を改善する方法について述べる。
我々は,最先端分散rlトレーニングフレームワーク上でのハードウェア利用全体の定量化を行う。
また、新しいシステム設計メトリック、CPU/GPU比を導入し、CPUリソースとGPUリソースの最適なバランスを見つける方法を紹介します。
論文 参考訳(メタデータ) (2020-12-08T04:50:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。