論文の概要: Multi-modal Sentiment Analysis using Super Characters Method on
Low-power CNN Accelerator Device
- arxiv url: http://arxiv.org/abs/2001.10179v1
- Date: Tue, 28 Jan 2020 05:45:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 02:43:01.509284
- Title: Multi-modal Sentiment Analysis using Super Characters Method on
Low-power CNN Accelerator Device
- Title(参考訳): スーパーキャラクタ法による低消費電力CNN加速器のマルチモーダル感度解析
- Authors: Baohua Sun, Lin Yang, Hao Sha, Michael Lin
- Abstract要約: CNNドメイン特化加速器(CNN-DSA)は、低消費電力で低コストな大量生産を行っている。
本稿では,CNN-DSAにスーパーキャラクタ法を実装する。
- 参考スコア(独自算出の注目度): 14.746869920517653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years NLP research has witnessed the record-breaking accuracy
improvement by DNN models. However, power consumption is one of the practical
concerns for deploying NLP systems. Most of the current state-of-the-art
algorithms are implemented on GPUs, which is not power-efficient and the
deployment cost is also very high. On the other hand, CNN Domain Specific
Accelerator (CNN-DSA) has been in mass production providing low-power and low
cost computation power. In this paper, we will implement the Super Characters
method on the CNN-DSA. In addition, we modify the Super Characters method to
utilize the multi-modal data, i.e. text plus tabular data in the CL-Aff
sharedtask.
- Abstract(参考訳): 近年NLP研究は、DNNモデルによる記録破りの精度向上を目撃している。
しかし、電力消費はnlpシステムのデプロイにおける現実的な懸念の1つである。
現在の最先端アルゴリズムのほとんどはgpu上に実装されているが、電力効率は高くなく、デプロイメントコストも極めて高い。
一方、CNNドメイン固有加速器(CNN-DSA)は、低消費電力で低コストな計算能力を備えた大量生産を行っている。
本稿では,cnn-dsa 上で super character メソッドを実装する。
さらに,マルチモーダルデータ,すなわち cl-aff sharedtask における表データを利用するために,super character メソッドを変更した。
関連論文リスト
- Accelerating DNN Training With Photonics: A Residue Number System-Based
Design [2.2750171530507695]
フォトニックコンピューティングはディープニューラルネットワーク(DNN)における高効率行列乗算を実現するための魅力的な道である
本研究では、アナログ領域でモジュラー演算を行うRSSベースのフォトニックテンソルコアに対して、新しいマイクロアーキテクチャとデータフローを提案する。
RNS推論とフォトニクスを組み合わせることで、ミラージュは精度を損なうことなく高い効率を提供する。
我々の研究では、シストリックと比較して、MirageはいくつかのDNNで平均23.8時間以上のトレーニングと32.1時間以下をアイソエネルギーのシナリオで達成している。
論文 参考訳(メタデータ) (2023-11-29T02:40:12Z) - Are SNNs Truly Energy-efficient? $-$ A Hardware Perspective [7.539212567508529]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率のよい機械学習能力に注目を集めている。
本研究では,SATAとSpikeSimという,大規模SNN推論のための2つのハードウェアベンチマークプラットフォームについて検討する。
論文 参考訳(メタデータ) (2023-09-06T22:23:22Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Braille Letter Reading: A Benchmark for Spatio-Temporal Pattern
Recognition on Neuromorphic Hardware [50.380319968947035]
近年の深層学習手法は,そのようなタスクにおいて精度が向上しているが,従来の組込みソリューションへの実装は依然として計算量が非常に高く,エネルギーコストも高い。
文字読み込みによるエッジにおける触覚パターン認識のための新しいベンチマークを提案する。
フィードフォワードとリカレントスパイキングニューラルネットワーク(SNN)を、サロゲート勾配の時間によるバックプロパゲーションを用いてオフラインでトレーニングし比較し、効率的な推論のためにIntel Loihimorphicチップにデプロイした。
LSTMは14%の精度で繰り返しSNNより優れており、Loihi上での繰り返しSNNは237倍のエネルギーである。
論文 参考訳(メタデータ) (2022-05-30T14:30:45Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Weightless Neural Networks for Efficient Edge Inference [1.7882696915798877]
ウェイトレスニューラルネットワーク(WNN)は、テーブルルックアップを使用して推論を行う機械学習モデルのクラスである。
本稿では,WNN アーキテクチャ BTHOWeN を提案する。
BTHOWeNは、より優れたレイテンシとエネルギー効率を提供することで、大規模で成長するエッジコンピューティングセクターをターゲットにしている。
論文 参考訳(メタデータ) (2022-03-03T01:46:05Z) - Approximating a deep reinforcement learning docking agent using linear
model trees [0.0]
リニアモデルツリー(LMT)は、ドッキング操作を行う5つの制御入力を持つ自律表面車両のDNNポリシーを近似する。
LMTは透過的であり、入力特徴の特定の値と直接出力(制御アクション)を関連付けることができる。
シミュレーションでは、不透明なDNNポリシーが車両を制御し、LMTは並列に走行し、特徴属性の形で説明を提供する。
論文 参考訳(メタデータ) (2022-03-01T11:32:07Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Positive/Negative Approximate Multipliers for DNN Accelerators [3.1921317895626493]
本稿では,重みを近似乗算器の適切なモードにマッピングするフィルタ指向近似法を提案する。
提案手法では,4つの異なるデータセット上で平均7つのNNで18.33%のエネルギーゲインを達成し,最大精度の低下は1%に留まった。
論文 参考訳(メタデータ) (2021-07-20T09:36:24Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - $\Pi-$nets: Deep Polynomial Neural Networks [86.36557534288535]
$Pi$-Netsは、出力が入力の高次であるニューラルネットワークである。
我々は、$Pi$-Netsが標準のDCNNよりも優れた表現能力を持っていることを実証的に実証した。
近年のStyleGANのような生成モデルが,先行モデルに改良を加えた理由を解明する。
論文 参考訳(メタデータ) (2020-03-08T18:48:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。