論文の概要: Enabling Capsule Networks at the Edge through Approximate Softmax and
Squash Operations
- arxiv url: http://arxiv.org/abs/2206.10200v1
- Date: Tue, 21 Jun 2022 08:57:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-22 18:17:31.630298
- Title: Enabling Capsule Networks at the Edge through Approximate Softmax and
Squash Operations
- Title(参考訳): ソフトマックスとスカッシュの近似操作によるカプセルネットワークのエッジ化
- Authors: Alberto Marchisio and Beatrice Bussolino and Edoardo Salvati and
Maurizio Martina and Guido Masera and Muhammad Shafique
- Abstract要約: 本稿では,ソフトマックスやスカッシュのような複素演算の近似変種を設計するために近似計算を活用することを提案する。
本実験では,ASIC設計フローで実装した設計の面積,消費電力,臨界経路遅延のトレードオフを評価する。
- 参考スコア(独自算出の注目度): 11.82717649039321
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex Deep Neural Networks such as Capsule Networks (CapsNets) exhibit high
learning capabilities at the cost of compute-intensive operations. To enable
their deployment on edge devices, we propose to leverage approximate computing
for designing approximate variants of the complex operations like softmax and
squash. In our experiments, we evaluate tradeoffs between area, power
consumption, and critical path delay of the designs implemented with the ASIC
design flow, and the accuracy of the quantized CapsNets, compared to the exact
functions.
- Abstract(参考訳): カプセルネットワーク(capsnets)のような複雑なディープニューラルネットワークは、計算集約的な操作のコストで高い学習能力を発揮する。
エッジデバイスへの展開を可能にするため,ソフトマックスやスカッシュのような複雑な操作の近似変種を設計するために近似計算を活用することを提案する。
本研究では,ASIC設計フローで実装した設計の面積,消費電力,臨界経路遅延と,正確な関数と比較して量子化されたCapsNetsの精度とのトレードオフを評価する。
関連論文リスト
- Node Centrality Approximation For Large Networks Based On Inductive
Graph Neural Networks [2.4012886591705738]
ネットワーク分析において、クローズネス中央度(CC)とブロードネス中央度(BC)が重要な指標である。
大規模なネットワーク上での実践的な実装は、その高速な複雑さのため、計算的に要求される。
本稿では,CNCA-IGEモデルを提案する。CNCA-IGEモデルは,CCやBCのメトリクスに基づいてノードをランク付けするインダクティブグラフエンコーダ・デコーダモデルである。
論文 参考訳(メタデータ) (2024-03-08T01:23:12Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Pointer Networks with Q-Learning for Combinatorial Optimization [55.2480439325792]
我々は、モデルフリーQ値ポリシー近似をPointer Networks(Ptr-Nets)と統合したハイブリッドニューラルネットワークであるPointer Q-Network(PQN)を紹介する。
実験により,本手法の有効性を実証し,不安定な環境でモデルをテストする。
論文 参考訳(メタデータ) (2023-11-05T12:03:58Z) - ProtoCaps: A Fast and Non-Iterative Capsule Network Routing Method [6.028175460199198]
本稿では,カプセルネットワークのための新しい非定型ルーティング機構を提案する。
私たちは共有のCapsuleサブスペースを利用し、各下位のCapsuleを各上位のCapsuleに投影する必要性を否定します。
本研究は,カプセルネットワークの運用効率と性能を向上させるための提案手法の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2023-07-19T12:39:40Z) - Fast Exploration of the Impact of Precision Reduction on Spiking Neural
Networks [63.614519238823206]
ターゲットハードウェアがコンピューティングの端に達すると、スパイキングニューラルネットワーク(SNN)が実用的な選択となる。
我々は、近似誤差を伝播するそのようなモデルの能力を生かした探索手法を開発するために、インターヴァル算術(IA)モデルを用いる。
論文 参考訳(メタデータ) (2022-11-22T15:08:05Z) - Towards Efficient Capsule Networks [7.1577508803778045]
カプセルネットワークはモデルの説明可能性を高めるために導入され、各カプセルはオブジェクトまたはその部分の明示的な表現である。
本稿では,Capsule Network を用いたプルーニングが,メモリ要件の低減,計算作業,推論とトレーニング時間といった高度な一般化を実現する方法を示す。
論文 参考訳(メタデータ) (2022-08-19T08:03:25Z) - Optimizing Tensor Network Contraction Using Reinforcement Learning [86.05566365115729]
本稿では,グラフニューラルネットワーク(GNN)と組み合わせた強化学習(RL)手法を提案する。
この問題は、巨大な検索スペース、重い尾の報酬分布、そして困難なクレジット割り当てのために非常に難しい。
GNNを基本方針として利用するRLエージェントが,これらの課題にどのように対処できるかを示す。
論文 参考訳(メタデータ) (2022-04-18T21:45:13Z) - Purification and Entanglement Routing on Quantum Networks [55.41644538483948]
不完全なチャネルフィリティと限られたメモリ記憶時間を備えた量子ネットワークは、ユーザ間の絡み合いを分散することができる。
本稿では,量子ネットワーク上の2ノード間で共有される絡み合いを最大化するための高速パスフィニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-23T19:00:01Z) - FlowCaps: Optical Flow Estimation with Capsule Networks For Action
Recognition [22.712379018181398]
Capsule Networks(CapsNets)は最近、ほとんどのコンピュータビジョンタスクに優れたことを約束している。
本稿では,CapsNetをベースとしたFlowCapsアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-11-08T11:35:08Z) - DESCNet: Developing Efficient Scratchpad Memories for Capsule Network
Hardware [12.26801463167931]
Capsule Networks(CapsNets)は、Deep Neural Networks(DNNs)と比較して、一般化能力を改善した。
CapsNetは計算とメモリの要求がかなり高く、そのエネルギー効率のよい推論は難しい課題である。
本稿では,ハードウェアアクセラレーターが高速なCapsNets推論を実行する際の(オンチップ)メモリの設計と管理に関する課題を,初めて詳細に分析する。
論文 参考訳(メタデータ) (2020-10-12T14:50:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。