論文の概要: Memristive Computing for Efficient Inference on Resource Constrained
Devices
- arxiv url: http://arxiv.org/abs/2208.10490v1
- Date: Sun, 21 Aug 2022 07:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-24 13:44:22.769036
- Title: Memristive Computing for Efficient Inference on Resource Constrained
Devices
- Title(参考訳): 資源制約デバイスにおける効率的な推論のためのメムリシティブ・コンピューティング
- Authors: Venkatesh Rammamoorthy, Geng Zhao, Bharathi Reddy, Ming-Yang Lin
- Abstract要約: 本研究では、不揮発性メモリの現況と、抵抗性RAMメモリの使用、特に記憶器の使用が、ディープラーニング研究の進展にどのように貢献するかを概観する。
言い換えれば、経験的技術の分野で進歩しているイデオロギーは、エッジデバイスにおける深層学習の推論に大きな影響を与え、影響を及ぼすことができる。
- 参考スコア(独自算出の注目度): 0.9940728137241214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The advent of deep learning has resulted in a number of applications which
have transformed the landscape of the research area in which it has been
applied. However, with an increase in popularity, the complexity of classical
deep neural networks has increased over the years. As a result, this has leads
to considerable problems during deployment on devices with space and time
constraints. In this work, we perform a review of the present advancements in
non-volatile memory and how the use of resistive RAM memory, particularly
memristors, can help to progress the state of research in deep learning. In
other words, we wish to present an ideology that advances in the field of
memristive technology can greatly influence and impact deep learning inference
on edge devices.
- Abstract(参考訳): 深層学習の出現は、それが適用された研究領域の景観を変える多くの応用をもたらした。
しかし、人気が高まり、古典的なディープニューラルネットワークの複雑さは長年にわたって増大してきた。
結果として、空間と時間の制約のあるデバイスにデプロイする際、これはかなりの問題を引き起こします。
本研究では,不揮発性メモリの現在の進歩と,抵抗性ramメモリ,特にmemristorの利用が,ディープラーニング研究の進展にどのように寄与するかを概観する。
言い換えれば、経験的技術の分野で進歩するイデオロギーは、エッジデバイスにおける深層学習の推論に大きな影響を与え、影響を及ぼすことができる。
関連論文リスト
- The Promise of Analog Deep Learning: Recent Advances, Challenges and Opportunities [2.9312156642007303]
アナログ実装における深層学習の進歩とともに、そのメリットとデメリットを評価し、特定する。
これらのハードウェアデバイスを用いて実装されたニューラルネットワークに基づく実験を同定し、異なるアナログ深層学習法により達成された比較性能について議論する。
全体としては、Analog Deep Learningは将来のコンシューマレベルのアプリケーションにとって大きな可能性を秘めていますが、スケーラビリティに関してはまだ長い道のりがあります。
論文 参考訳(メタデータ) (2024-06-13T07:52:33Z) - Computation-efficient Deep Learning for Computer Vision: A Survey [121.84121397440337]
ディープラーニングモデルは、さまざまな視覚的知覚タスクにおいて、人間レベルのパフォーマンスに到達または超えた。
ディープラーニングモデルは通常、重要な計算資源を必要とし、現実のシナリオでは非現実的な電力消費、遅延、または二酸化炭素排出量につながる。
新しい研究の焦点は計算効率のよいディープラーニングであり、推論時の計算コストを最小限に抑えつつ、良好な性能を達成することを目指している。
論文 参考訳(メタデータ) (2023-08-27T03:55:28Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Edge Intelligence Over the Air: Two Faces of Interference in Federated
Learning [95.31679010587473]
フェデレートされたエッジ学習は、次世代無線ネットワークにおけるインテリジェンスの実現の基盤として考えられている。
本稿では,無線によるエッジ学習システムにおける干渉の肯定的および否定的影響について概説する。
論文 参考訳(メタデータ) (2023-06-17T09:04:48Z) - Sparsity and Heterogeneous Dropout for Continual Learning in the Null
Space of Neural Activations [36.24028295650668]
非定常的な入力データストリームからの連続的/長期的学習は知性の基盤である。
ディープニューラルネットワークは、新しいものを学ぶ際に、これまで学んだ情報を忘れる傾向がある。
近年、ディープニューラルネットワークにおける破滅的な忘れを乗り越えることが、研究の活発な分野となっている。
論文 参考訳(メタデータ) (2022-03-12T21:12:41Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Discussion of Ensemble Learning under the Era of Deep Learning [4.061135251278187]
深層学習のアンサンブル化は,学習システムの一般化に大きく貢献している。
複数のベース深層学習者のトレーニングとアンサンブル深層学習者によるテストのための時間と空間のオーバーヘッドは、従来のアンサンブル学習よりもはるかに大きい。
緊急に解決すべき問題は、必要な時間と空間のオーバーヘッドを減らしながら、ディープラーニングをアンサンブルする大きな利点をいかに活用するかである。
論文 参考訳(メタデータ) (2021-01-21T01:33:23Z) - Knowledge Distillation: A Survey [87.51063304509067]
ディープニューラルネットワークは、特にコンピュータビジョンタスクにおいて、産業と学術の両方で成功している。
リソースが限られているデバイスに、これらの面倒なディープモデルをデプロイすることは難しい。
知識蒸留は、大きな教師モデルから小さな学生モデルを効果的に学習する。
論文 参考訳(メタデータ) (2020-06-09T21:47:17Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Memristors -- from In-memory computing, Deep Learning Acceleration,
Spiking Neural Networks, to the Future of Neuromorphic and Bio-inspired
Computing [25.16076541420544]
機械学習は、特にディープラーニングの形で、人工知能の最近の基本的な発展のほとんどを駆動している。
ディープラーニングは、オブジェクト/パターン認識、音声と自然言語処理、自動運転車、インテリジェントな自己診断ツール、自律ロボット、知識に富んだパーソナルアシスタント、監視といった分野に成功している。
本稿では、電力効率の高いインメモリコンピューティング、ディープラーニングアクセラレーター、スパイクニューラルネットワークの実装のための潜在的なソリューションとして、CMOSハードウェア技術、memristorsを超越した小説をレビューする。
論文 参考訳(メタデータ) (2020-04-30T16:49:03Z) - Memristor Hardware-Friendly Reinforcement Learning [14.853739554366351]
そこで我々は,強化学習におけるアクター・クリティック・アルゴリズムのための経験的ニューロモルフィック・ハードウェアの実装を提案する。
RLと制御理論の両方において古典的な問題である逆振り子のバランスをとることを考える。
本研究は,メムリスタをベースとしたハードウェアニューラルネットワークを用いて複雑なタスクをその場での強化学習によって処理する可能性を示唆している。
論文 参考訳(メタデータ) (2020-01-20T01:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。