論文の概要: Clo-HDnn: A 4.66 TFLOPS/W and 3.78 TOPS/W Continual On-Device Learning Accelerator with Energy-efficient Hyperdimensional Computing via Progressive Search
- arxiv url: http://arxiv.org/abs/2507.17953v1
- Date: Wed, 23 Jul 2025 21:50:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:42.630287
- Title: Clo-HDnn: A 4.66 TFLOPS/W and 3.78 TOPS/W Continual On-Device Learning Accelerator with Energy-efficient Hyperdimensional Computing via Progressive Search
- Title(参考訳): Clo-HDnn: A 4.66 TFLOPS/Wと3.78 TOPS/W 連続オンデバイス学習加速器
- Authors: Chang Eun Song, Weihong Xu, Keming Fan, Soumil Jain, Gopabandhu Hota, Haichao Yang, Leo Liu, Kerem Akarvardar, Meng-Fan Chang, Carlos H. Diaz, Gert Cauwenberghs, Tajana Rosing, Mingu Kang,
- Abstract要約: Clo-HDnnはデバイス上での学習(ODL)アクセラレータで、CL(Continuous Learning)タスクの出現用に設計された。
そのデュアルモード操作は、単純なデータセットのためにコストのかかる特徴抽出をバイパスすることができる。
そのプログレッシブ検索は、部分的なクエリハイパーベクタのみをエンコードして比較することによって、複雑さを最大61%削減する。
- 参考スコア(独自算出の注目度): 7.700041585751539
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Clo-HDnn is an on-device learning (ODL) accelerator designed for emerging continual learning (CL) tasks. Clo-HDnn integrates hyperdimensional computing (HDC) along with low-cost Kronecker HD Encoder and weight clustering feature extraction (WCFE) to optimize accuracy and efficiency. Clo-HDnn adopts gradient-free CL to efficiently update and store the learned knowledge in the form of class hypervectors. Its dual-mode operation enables bypassing costly feature extraction for simpler datasets, while progressive search reduces complexity by up to 61% by encoding and comparing only partial query hypervectors. Achieving 4.66 TFLOPS/W (FE) and 3.78 TOPS/W (classifier), Clo-HDnn delivers 7.77x and 4.85x higher energy efficiency compared to SOTA ODL accelerators.
- Abstract(参考訳): Clo-HDnnはデバイス上での学習(ODL)アクセラレータで、CL(Continuous Learning)タスクの出現用に設計された。
Clo-HDnnは高次元計算(HDC)と低コストのKronecker HD Encoderと重み付け機能抽出(WCFE)を統合し、精度と効率を最適化する。
Clo-HDnnは勾配のないCLを採用し、学習した知識をクラスハイパーベクターの形で効率的に更新し保存する。
そのデュアルモード操作は、単純なデータセットに対してコストのかかる特徴抽出をバイパスし、プログレッシブ検索は、部分的なクエリハイパーベクタのみをエンコードして比較することによって、複雑さを最大61%削減する。
4.66TFLOPS/W(FE)と3.78TOPS/W(分類器)を達成し、SOTA ODLアクセラレータと比較して7.77倍と4.85倍のエネルギー効率を提供する。
関連論文リスト
- BlockFFN: Towards End-Side Acceleration-Friendly Mixture-of-Experts with Chunk-Level Activation Sparsity [66.94629945519125]
我々は、新しいMoEアーキテクチャであるBlockFFNと、その効率的なトレーニングとデプロイメント技術を紹介します。
具体的には、ReLUアクティベーションとRMSNormを統合したルータを、微分可能かつ柔軟なルーティングに使用します。
次に、トークンレベルのスペーサ(TLS)とチャンクレベルのスペーサ(CLS)の両方を促進するために、CLS対応のトレーニング目標を設計し、BlockFFNをより加速しやすいものにした。
論文 参考訳(メタデータ) (2025-07-11T17:28:56Z) - Chameleon: A MatMul-Free Temporal Convolutional Network Accelerator for End-to-End Few-Shot and Continual Learning from Sequential Data [0.15178034047411867]
エッジでのデバイス上での学習により、低レイテンシ、長期的な堅牢性の向上とメンテナンスコストの削減による個人化が可能になる。
スケーラブルで低消費電力のエンド・ツー・エンドのオン・チップ・ラーニングを実現するには、特に実世界のシーケンシャルなデータに限られた数のサンプルを組み込むことは、オープンな課題である。
Chameleonを紹介します。これらの課題を解決するために3つの重要なコントリビューションを活用します。
論文 参考訳(メタデータ) (2025-05-30T17:49:30Z) - DCP: Learning Accelerator Dataflow for Neural Network via Propagation [52.06154296196845]
この研究は、DNN層の最適なデータフローを人間の努力なしに数秒で自動的に見つけるために、Dataflow Code Propagation (DCP)と呼ばれる効率的なデータ中心のアプローチを提案する。
DCPは、様々な最適化目標を最小化するために、望ましい勾配方向に向けてデータフローコードを効率的に更新する神経予測器を学習する。
例えば、追加のトレーニングデータを使用しないDCPは、数千のサンプルを使用して完全な検索を行うGAMAメソッドを超越している。
論文 参考訳(メタデータ) (2024-10-09T05:16:44Z) - FSL-HDnn: A 5.7 TOPS/W End-to-end Few-shot Learning Classifier Accelerator with Feature Extraction and Hyperdimensional Computing [8.836803844185619]
FSL-HDnnは、特徴抽出、分類、チップ上の数発学習のエンドツーエンドパイプラインを実装するエネルギー効率の高いアクセラレータである。
軽量クラスタリング機能抽出器と超次元コンピューティングの2つの低消費電力モジュールを統合している。
特徴1抽出には5.7TOPS/W、分類と学習には0.78TOPS/Wのエネルギー効率を達成している。
論文 参考訳(メタデータ) (2024-09-17T06:23:12Z) - 3D Learnable Supertoken Transformer for LiDAR Point Cloud Scene Segmentation [19.94836580257577]
本稿では, 3D Learnable Supertoken Transformer (3DLST) という新しい3Dトランスフレームワークを提案する。
3DLSTは、一般的なU-net設計ではなく、新しいW-netアーキテクチャを備えている。
アルゴリズムの効率は従来の最高の性能の手法よりも最大5倍高速である。
論文 参考訳(メタデータ) (2024-05-23T20:41:15Z) - HEAL: Brain-inspired Hyperdimensional Efficient Active Learning [13.648600396116539]
本稿では,HDC分類に適した新しい能動学習フレームワークであるHyperdimensional Efficient Active Learning (HEAL)を紹介する。
HEALは、不確実性と多様性に基づく買収を通じて、ラベルなしのデータポイントを積極的に注釈付けし、より効率的なデータセットアノテーションと労働コストの削減につながる。
評価の結果,HEALは多種多様なAL品質のベースラインを超越し,多くのBNNや多様性誘導AL手法よりも顕著に高速な獲得を実現していることがわかった。
論文 参考訳(メタデータ) (2024-02-17T08:41:37Z) - Data-Model-Circuit Tri-Design for Ultra-Light Video Intelligence on Edge
Devices [90.30316433184414]
本稿では,HDビデオストリーム上での高スループット,低コスト,高精度MOTのためのデータモデル・ハードウエア・トリデザイン・フレームワークを提案する。
現状のMOTベースラインと比較して、我々の三設計アプローチは12.5倍の遅延低減、20.9倍のフレームレート改善、5.83倍の低消費電力、9.78倍のエネルギー効率を実現でき、精度は低下しない。
論文 参考訳(メタデータ) (2022-10-16T16:21:40Z) - Highly Parallel Autoregressive Entity Linking with Discriminative
Correction [51.947280241185]
自己回帰リンクを全ての潜在的な言及に対して並列化する,非常に効率的な手法を提案する。
我々のモデルは以前の生成法より70倍高速で精度が高い。
論文 参考訳(メタデータ) (2021-09-08T17:28:26Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - SHEARer: Highly-Efficient Hyperdimensional Computing by
Software-Hardware Enabled Multifold Approximation [7.528764144503429]
我々は,HDコンピューティングの性能とエネルギー消費を改善するアルゴリズム-ハードウェア協調最適化であるSHEARerを提案する。
SHEARerは104,904x (15.7x)のスループット向上と56,044x (301x)の省エネを実現している。
また,提案した近似符号化をエミュレートすることで,HDモデルのトレーニングを可能にするソフトウェアフレームワークを開発した。
論文 参考訳(メタデータ) (2020-07-20T07:58:44Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。