論文の概要: Event-Driven Digital-Time-Domain Inference Architectures for Tsetlin Machines
- arxiv url: http://arxiv.org/abs/2511.09527v1
- Date: Thu, 13 Nov 2025 02:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.607788
- Title: Event-Driven Digital-Time-Domain Inference Architectures for Tsetlin Machines
- Title(参考訳): イベント駆動型Tsetlinマシンのディジタルドメイン推論アーキテクチャ
- Authors: Tian Lan, Rishad Shafik, Alex Yakovlev,
- Abstract要約: 機械学習は、未知のサンプルを予測し、入力出力マッピングを近似するためにモデルパラメータに適合する。
これらのモデルは、推論中に広範な算術計算を必要とし、レイテンシと消費電力を増大させる。
本稿では,これらの課題に対処するため,Tsetlin Machine (TM) のディジタル時間領域計算手法を提案する。
- 参考スコア(独自算出の注目度): 6.161316627062721
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning fits model parameters to approximate input-output mappings, predicting unknown samples. However, these models often require extensive arithmetic computations during inference, increasing latency and power consumption. This paper proposes a digital-time-domain computing approach for Tsetlin machine (TM) inference process to address these challenges. This approach leverages a delay accumulation mechanism to mitigate the costly arithmetic sums of classes and employs a Winner-Takes-All scheme to replace conventional magnitude comparators. Specifically, a Hamming distance-driven time-domain scheme is implemented for multi-class TMs. Furthermore, differential delay paths, combined with a leading-ones-detector logarithmic delay compression digital-time-domain scheme, are utilised for the coalesced TMs, accommodating both binary-signed and exponential-scale delay accumulation issues. Compared to the functionally equivalent, post-implementation digital TM architecture baseline, the proposed architecture demonstrates orders-of-magnitude improvements in energy efficiency and throughput.
- Abstract(参考訳): 機械学習は、未知のサンプルを予測し、入力出力マッピングを近似するためにモデルパラメータに適合する。
しかし、これらのモデルは、推論中に広範な算術計算を必要とし、レイテンシと消費電力を増大させる。
本稿では,これらの課題に対処するため,Tsetlin Machine (TM) のディジタル時間領域計算手法を提案する。
このアプローチでは、遅延蓄積機構を活用して、コストのかかるクラスの算術和を緩和し、Winner-Takes-Allスキームを用いて従来の等級コンパレータを置き換える。
具体的には、ハミング距離駆動の時間領域スキームをマルチクラスTMに実装する。
さらに、差分遅延パスと、先行対数対数遅延圧縮デジタル時間領域スキームを併用して、連成TMに利用し、二項符号および指数スケール遅延累積問題を調節する。
機能的に等価な実装後のデジタルTMアーキテクチャのベースラインと比較して、提案アーキテクチャはエネルギー効率とスループットのオーダー・オブ・マグニチュードの改善を示す。
関連論文リスト
- Time-Embedded Algorithm Unrolling for Computational MRI [4.511561231517167]
本稿では,逆問題に対する時間組込みアルゴリズムの解法を提案する。
本手法は,アーティファクトのエイリアスを効果的に低減し,ノイズ増幅を緩和し,最先端の性能を実現する。
論文 参考訳(メタデータ) (2025-10-18T03:10:09Z) - Efficient FPGA Implementation of Time-Domain Popcount for Low-Complexity Machine Learning [0.2663045001864042]
人口数(人口数)は多くの低複雑性機械学習(ML)アルゴリズムにとって重要な操作である。
本稿では,これらの操作を時間領域で実行することで高速化し,最適化する革新的な手法を提案する。
論文 参考訳(メタデータ) (2025-05-04T16:44:15Z) - Machine Learning-assisted High-speed Combinatorial Optimization with Ising Machines for Dynamically Changing Problems [0.0]
パラメータチューニングを伴わずに多種多様な問題を高速に解くため,組込みIsing マシンを用いた手法を提案する。
無線マルチホップネットワークのTDMAスケジューリングにおいて,従来の手法よりも高速に処理できることを示す。
論文 参考訳(メタデータ) (2025-03-31T11:31:36Z) - TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Delayed Memory Unit: Modelling Temporal Dependency Through Delay Gate [16.4160685571157]
リカレントニューラルネットワーク(RNN)は、時間的依存をモデル化する能力で広く認識されている。
本稿では、ゲートRNNのための新しい遅延メモリユニット(DMU)を提案する。
DMUは遅延線構造と遅延ゲートをバニラRNNに組み込み、時間的相互作用を高め、時間的信用割り当てを容易にする。
論文 参考訳(メタデータ) (2023-10-23T14:29:48Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - TMS: A Temporal Multi-scale Backbone Design for Speaker Embedding [60.292702363839716]
話者埋め込みのための現在のSOTAバックボーンネットワークは、話者表現のためのマルチブランチネットワークアーキテクチャを用いた発話からマルチスケール特徴を集約するように設計されている。
本稿では, 話者埋め込みネットワークにおいて, 計算コストの増大を伴わずに, マルチスケール分岐を効率的に設計できる効果的な時間的マルチスケール(TMS)モデルを提案する。
論文 参考訳(メタデータ) (2022-03-17T05:49:35Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Straggler-aware Distributed Learning: Communication Computation Latency
Trade-off [56.08535873173518]
ストラグワーカーは冗長な計算を割り当て、データと計算をまたいでコーディングすることで許容できる。
既存のほとんどのスキームでは、各非ストラグリングワーカーは、全ての計算を完了した後、1イテレーションごとに1つのメッセージをパラメータサーバ(PS)に送信する。
このような制限を課すことで、ストレグリング動作の不正確な予測による過剰計算と、ストレグラー/非ストレグラーとしての作業員の処理による未使用の2つの主な欠点が生じる。
論文 参考訳(メタデータ) (2020-04-10T08:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。