論文の概要: Weight Mapping Properties of a Dual Tree Single Clock Adiabatic Capacitive Neuron
- arxiv url: http://arxiv.org/abs/2509.18143v1
- Date: Mon, 15 Sep 2025 14:11:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.414622
- Title: Weight Mapping Properties of a Dual Tree Single Clock Adiabatic Capacitive Neuron
- Title(参考訳): 二重木型単クローン型静電容量ニューロンの重量マッピング特性
- Authors: Mike Smart, Sachin Maheshwari, Himadri Singh Raghav, Alexander Serb,
- Abstract要約: 我々は3つの異なるANNネットワークを訓練し、その重みをエネルギー効率の良いACN値領域にマッピングし、100%の関数同値性を示す。
最後に,重み量子化がACN性能に与える影響を,実用的なICを考慮した新しい指標を用いて検討する。
- 参考スコア(独自算出の注目度): 39.146761527401424
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dual Tree Single Clock (DTSC) Adiabatic Capacitive Neuron (ACN) circuits offer the potential for highly energy-efficient Artificial Neural Network (ANN) computation in full custom analog IC designs. The efficient mapping of Artificial Neuron (AN) abstract weights, extracted from the software-trained ANNs, onto physical ACN capacitance values has, however, yet to be fully researched. In this paper, we explore the unexpected hidden complexities, challenges and properties of the mapping, as well as, the ramifications for IC designers in terms accuracy, design and implementation. We propose an optimal, AN to ACN methodology, that promotes smaller chip sizes and improved overall classification accuracy, necessary for successful practical deployment. Using TensorFlow and Larq software frameworks, we train three different ANN networks and map their weights into the energy-efficient DTSC ACN capacitance value domain to demonstrate 100% functional equivalency. Finally, we delve into the impact of weight quantization on ACN performance using novel metrics related to practical IC considerations, such as IC floor space and comparator decision-making efficacy.
- Abstract(参考訳): Dual Tree Single Clock (DTSC) Adiabatic Capacitive Neuron (ACN) 回路は、完全なアナログIC設計において、高エネルギー効率のArtificial Neural Network (ANN) 計算の可能性を秘めている。
ソフトウェアで訓練されたANNから抽出された人工ニューロン(AN)の物理的ACN容量値への効率的なマッピングは、まだ完全には研究されていない。
本稿では, 予期せぬ複雑さ, 課題, マッピングの性質, ICデザイナへの影響を, 精度, 設計, 実装の観点から検討する。
本稿では,チップサイズが小さくなり,全体の分類精度が向上し,実用化に必要となる最適なAN to ACN手法を提案する。
TensorFlowとLarqのソフトウェアフレームワークを使用して、3つの異なるANNネットワークをトレーニングし、その重みをエネルギー効率の良いDTSC ACN容量値領域にマッピングし、100%の関数同値性を示す。
最後に、ICフロア空間やコンパレータ決定効率などの実践的ICを考慮した新しい指標を用いて、重み量子化がACN性能に与える影響について検討する。
関連論文リスト
- A Neural Network for the Identical Kuramoto Equation: Architectural Considerations and Performance Evaluation [0.0]
同一振動子倉本モデルから導かれる非局所保存法の解法を近似するためのディープニューラルネットワーク(DNN)の効率について検討する。
ネットワーク構成パラメータが収束特性に影響を与えることを示す。
我々は,一意的あるいは一意的な解を扱う際に,標準フィードフォワードアーキテクチャの基本的限界を特定する。
論文 参考訳(メタデータ) (2025-09-17T19:37:01Z) - Auto-Compressing Networks [59.83547898874152]
本稿では,各層からの付加的な長フィードフォワード接続が従来の短残コネクションに取って代わるアーキテクチャ変種であるAuto-Nets(ACNs)を紹介する。
ACNは、トレーニング中に情報を有機的に圧縮するネットワークの能力である、"auto-compression"(自動圧縮)という独自の特性を示します。
その結果,ACNは残差ネットワークに比べて耐雑音性が向上し,低データ設定性能が向上し,破滅的忘れを軽減できることがわかった。
論文 参考訳(メタデータ) (2025-06-11T13:26:09Z) - Energy efficiency analysis of Spiking Neural Networks for space applications [43.91307921405309]
スパイキングニューラルネットワーク(SNN)は理論的に優れたエネルギー効率のために非常に魅力的である。
本研究では,EuroSATデータセットのシーン分類に応用したSNN手法の数値解析と比較を行う。
論文 参考訳(メタデータ) (2025-05-16T16:29:50Z) - Asymmetrical estimator for training encapsulated deep photonic neural networks [10.709758849326061]
フォトニックニューラルネットワーク(PNN)は高速なインプロパゲーションと高帯域幅のパラダイムである。
DPNNのカプセル化に適した非対称訓練法(AsyT)を導入する。
AsyTは、最小の読み出し、高速かつ省エネな操作、最小のシステムフットプリントを備えたDPNNのための軽量ソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-28T17:27:20Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。