論文の概要: Improved Data Encoding for Emerging Computing Paradigms: From Stochastic to Hyperdimensional Computing
- arxiv url: http://arxiv.org/abs/2501.02715v1
- Date: Mon, 06 Jan 2025 02:07:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:10:10.114660
- Title: Improved Data Encoding for Emerging Computing Paradigms: From Stochastic to Hyperdimensional Computing
- Title(参考訳): 新興コンピューティングパラダイムのためのデータエンコーディングの改善:確率から超次元コンピューティングへ
- Authors: Mehran Shoushtari Moghadam, Sercan Aygun, M. Hassan Najafi,
- Abstract要約: 本研究は、ハードウェアフレンドリーな低分散性(LD)シークエンスを利用する高度な符号化戦略を提案する。
提案手法は,ランダム性に関わる課題に対処することにより,SCとHDCシステムの精度と効率を大幅に向上させる。
我々のソリューションは、リソース制約のある環境でSCとHDCを統合するための堅牢なフレームワークを提供し、効率的でスケーラブルなAI実装の道を開いた。
- 参考スコア(独自算出の注目度): 1.523100574874007
- License:
- Abstract: Data encoding is a fundamental step in emerging computing paradigms, particularly in stochastic computing (SC) and hyperdimensional computing (HDC), where it plays a crucial role in determining the overall system performance and hardware cost efficiency. This study presents an advanced encoding strategy that leverages a hardware-friendly class of low-discrepancy (LD) sequences, specifically powers-of-2 bases of Van der Corput (VDC) sequences (VDC-2^n), as sources for random number generation. Our approach significantly enhances the accuracy and efficiency of SC and HDC systems by addressing challenges associated with randomness. By employing LD sequences, we improve correlation properties and reduce hardware complexity. Experimental results demonstrate significant improvements in accuracy and energy savings for SC and HDC systems. Our solution provides a robust framework for integrating SC and HDC in resource-constrained environments, paving the way for efficient and scalable AI implementations.
- Abstract(参考訳): データ符号化は、特に確率コンピューティング(SC)や超次元コンピューティング(HDC)において、新しいコンピューティングパラダイムにおける基本的なステップであり、システム全体の性能とハードウェアコスト効率を決定する上で重要な役割を果たしている。
本研究では,Van der Corput (VDC-2^n) 列のパワー・オブ・-2 塩基を乱数生成の源として,ハードウェアフレンドリーな低分散(LD) シーケンスのクラスを利用する高度な符号化方式を提案する。
提案手法は,ランダム性に関わる課題に対処することにより,SCとHDCシステムの精度と効率を大幅に向上させる。
LDシーケンスを用いることで、相関特性を改善し、ハードウェアの複雑さを低減する。
実験の結果,SCおよびHDCシステムの精度と省エネ性は著しく向上した。
我々のソリューションは、リソース制約のある環境でSCとHDCを統合するための堅牢なフレームワークを提供し、効率的でスケーラブルなAI実装の道を開いた。
関連論文リスト
- HD-CB: The First Exploration of Hyperdimensional Computing for Contextual Bandits Problems [0.6377289349842638]
この研究は超次元文脈帯域(HD-CB)を導入している。
HD-CBは、シーケンシャルな意思決定問題をモデル化し、自動化するためのHDCの最初の探索である。
従来の線形CBアルゴリズムと比較して、競争力や優れた性能を実現している。
論文 参考訳(メタデータ) (2025-01-28T11:28:09Z) - Synergistic Development of Perovskite Memristors and Algorithms for Robust Analog Computing [53.77822620185878]
本稿では,ペロブスカイト・メムリスタの製作を同時に最適化し,ロバストなアナログDNNを開発するための相乗的手法を提案する。
BO誘導ノイズインジェクションを利用したトレーニング戦略であるBayesMultiを開発した。
我々の統合されたアプローチは、より深くより広いネットワークでのアナログコンピューティングの使用を可能にし、最大100倍の改善を実現します。
論文 参考訳(メタデータ) (2024-12-03T19:20:08Z) - Resource-Adaptive Successive Doubling for Hyperparameter Optimization with Large Datasets on High-Performance Computing Systems [0.4334105740533729]
本稿では,資源適応型逐次二重化アルゴリズム(RASDA)を提案する。
リソース適応型逐次二重化スキームと非同期逐次Halving Algorithm(ASHA)を組み合わせる。
ニューラルネットワーク(NN)のさまざまなタイプに適用され、コンピュータビジョン(CV)、計算流体力学(CFD)、追加製造(AM)ドメインからの大規模なデータセットでトレーニングされる。
論文 参考訳(メタデータ) (2024-12-03T11:25:48Z) - Accelerating Error Correction Code Transformers [56.75773430667148]
本稿では,トランスを用いたデコーダの高速化手法を提案する。
最新のハードウェアでは、90%の圧縮比を実現し、算術演算エネルギー消費を少なくとも224倍削減する。
論文 参考訳(メタデータ) (2024-10-08T11:07:55Z) - Short-Long Convolutions Help Hardware-Efficient Linear Attention to Focus on Long Sequences [60.489682735061415]
本稿では,状態空間モデルを短時間の畳み込みに置き換えたCHELAを提案する。
提案手法の有効性を示すために,Long Range Arenaベンチマークと言語モデリングタスクについて実験を行った。
論文 参考訳(メタデータ) (2024-06-12T12:12:38Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Randomized Dimension Reduction with Statistical Guarantees [0.27195102129095]
この論文は、高速な実行と効率的なデータ利用のためのアルゴリズムをいくつか探求している。
一般化と分散性を向上する様々なデータ拡張を組み込んだ学習アルゴリズムに着目する。
具体的には、第4章では、データ拡張整合正則化のための複雑性分析のサンプルを提示する。
論文 参考訳(メタデータ) (2023-10-03T02:01:39Z) - Hardware-Efficient Deconvolution-Based GAN for Edge Computing [1.5229257192293197]
Generative Adversarial Networks (GAN) は、学習したデータ分布に基づいて新しいデータサンプルを生成する最先端のアルゴリズムである。
我々は、スケーラブルなストリーミングデータフローアーキテクチャを用いてFPGA上に実装された量子化デコンボリューションGAN(QDCGAN)のトレーニングのためのHW/SW共同設計手法を提案する。
リソース制約のあるプラットフォーム上での低消費電力推論のために,様々な精度,データセット,ネットワークスケーラビリティを解析した。
論文 参考訳(メタデータ) (2022-01-18T11:16:59Z) - Scaling Quantum Approximate Optimization on Near-term Hardware [49.94954584453379]
我々は、様々なレベルの接続性を持つハードウェアアーキテクチャのための最適化回路により、期待されるリソース要求のスケーリングを定量化する。
問題の大きさと問題グラフの次数で指数関数的に増大する。
これらの問題は、ハードウェア接続性の向上や、より少ない回路層で高い性能を達成するQAOAの変更によって緩和される可能性がある。
論文 参考訳(メタデータ) (2022-01-06T21:02:30Z) - Reconfigurable Intelligent Surface Assisted Mobile Edge Computing with
Heterogeneous Learning Tasks [53.1636151439562]
モバイルエッジコンピューティング(MEC)は、AIアプリケーションに自然なプラットフォームを提供します。
再構成可能なインテリジェントサーフェス(RIS)の助けを借りて、MECで機械学習タスクを実行するインフラストラクチャを提示します。
具体的には,モバイルユーザの送信パワー,基地局のビームフォーミングベクトル,risの位相シフト行列を共同で最適化することにより,参加ユーザの学習誤差を最小化する。
論文 参考訳(メタデータ) (2020-12-25T07:08:50Z) - Hard-ODT: Hardware-Friendly Online Decision Tree Learning Algorithm and
System [17.55491405857204]
ビッグデータの時代、従来の決定木誘導アルゴリズムは大規模なデータセットの学習には適していません。
最先端のオンライン学習モデルの1つであるHoeffdingツリーの誘導を改善するための新しい量子化ベースのアルゴリズムを紹介します。
本稿では,フィールドプログラマブルゲートアレイ(FPGA)上に,システムレベルの最適化手法を用いた高性能,ハードウェア効率,スケーラブルなオンライン決定木学習システムであるHard-ODTを提案する。
論文 参考訳(メタデータ) (2020-12-11T12:06:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。