論文の概要: Impact of GPU uncertainty on the training of predictive deep neural
networks
- arxiv url: http://arxiv.org/abs/2109.01451v1
- Date: Fri, 3 Sep 2021 11:21:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-06 17:37:34.354791
- Title: Impact of GPU uncertainty on the training of predictive deep neural
networks
- Title(参考訳): 予測深部ニューラルネットワークのトレーニングにおけるGPUの不確実性の影響
- Authors: Maciej Pietrowski, Andrzej Gajda, Takuto Yamamoto, Taisuke Kobayashi,
Lana Sinapayen, Eiji Watanabe
- Abstract要約: GPUが引き起こした不確実性は、特定のディープニューラルネットワークの学習精度を高めた。
この効果は単純なオートエンコーダでは観測できないため、特定の種類のニューラルネットワークに特有の現象である可能性がある。
- 参考スコア(独自算出の注目度): 1.154829465058342
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep neural networks often present uncertainties such as hardware- and
software-derived noise and randomness. We studied the effects of such
uncertainty on learning outcomes, with a particular focus on the function of
graphics processing units (GPUs), and found that GPU-induced uncertainty
increased learning accuracy of a certain deep neural network. When training a
predictive deep neural network using only the CPU without the GPU, the learning
error is higher than when training the same number of epochs using the GPU,
suggesting that the GPU plays a different role in the learning process than
just increasing the computational speed. Because this effect cannot be observed
in learning by a simple autoencoder, it could be a phenomenon specific to
certain types of neural networks. GPU-specific computational processing is more
indeterminate than that by CPUs, and hardware-derived uncertainties, which are
often considered obstacles that need to be eliminated, might, in some cases, be
successfully incorporated into the training of deep neural networks. Moreover,
such uncertainties might be interesting phenomena to consider in brain-related
computational processing, which comprises a large mass of uncertain signals.
- Abstract(参考訳): ディープニューラルネットワークは、ハードウェアやソフトウェアによるノイズやランダムネスといった不確実性を示すことが多い。
このような不確実性が学習結果に与える影響を,特にグラフィックス処理ユニット(GPU)の機能に着目して検討し,GPUによる深層ニューラルネットワークの学習精度の向上が認められた。
GPUを使わずにCPUのみを使用して予測的なディープニューラルネットワークをトレーニングする場合、学習誤差はGPUを使用して同じ数のエポックをトレーニングする場合よりも高く、GPUが単に計算速度を上げることよりも学習プロセスにおいて異なる役割を果たすことを示唆している。
この効果は単純なオートエンコーダでは観測できないため、特定の種類のニューラルネットワークに特有の現象である可能性がある。
GPU固有の計算処理はCPUよりも不確定であり、ハードウェア由来の不確実性は、しばしば排除すべき障害とみなされるが、場合によっては、ディープニューラルネットワークのトレーニングにうまく組み込むことができる。
さらに、そのような不確実性は、大量の不確実な信号を含む脳関連計算処理において考慮すべき興味深い現象であるかもしれない。
関連論文リスト
- Verified Neural Compressed Sensing [58.98637799432153]
精度の高い計算タスクのために、初めて(私たちの知識を最大限に活用するために)証明可能なニューラルネットワークを開発します。
極小問題次元(最大50)では、線形および双項線形測定からスパースベクトルを確実に回復するニューラルネットワークを訓練できることを示す。
ネットワークの複雑さは問題の難易度に適応できることを示し、従来の圧縮センシング手法が証明不可能な問題を解く。
論文 参考訳(メタデータ) (2024-05-07T12:20:12Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Refining neural network predictions using background knowledge [68.35246878394702]
学習システムにおける論理的背景知識を用いて,ラベル付きトレーニングデータの不足を補うことができることを示す。
そこで本研究では,修正された予測を元の予測に近い精度で検出する微分可能精細関数を提案する。
このアルゴリズムは、複雑なSATの公式に対して、非常に少ない繰り返しで最適に洗練され、勾配降下ができない解がしばしば見つかる。
論文 参考訳(メタデータ) (2022-06-10T10:17:59Z) - Predictive Coding: Towards a Future of Deep Learning beyond
Backpropagation? [41.58529335439799]
ディープニューラルネットワークのトレーニングに使用されるエラーアルゴリズムのバックプロパゲーションは、ディープラーニングの成功に不可欠である。
最近の研究は、このアイデアを、局所的な計算だけでニューラルネットワークを訓練できる汎用アルゴリズムへと発展させた。
等価ディープニューラルネットワークに対する予測符号化ネットワークの柔軟性が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T22:57:03Z) - A quantum algorithm for training wide and deep classical neural networks [72.2614468437919]
勾配勾配勾配による古典的トレーサビリティに寄与する条件は、量子線形系を効率的に解くために必要な条件と一致することを示す。
MNIST画像データセットがそのような条件を満たすことを数値的に示す。
我々は、プールを用いた畳み込みニューラルネットワークのトレーニングに$O(log n)$の実証的証拠を提供する。
論文 参考訳(メタデータ) (2021-07-19T23:41:03Z) - Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks [0.0]
畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-26T13:52:01Z) - Robust error bounds for quantised and pruned neural networks [1.8083503268672914]
機械学習のアルゴリズムは、データとアルゴリズムを保存し、訓練し、デバイス上でローカルに分散化しようとしている。
デバイスハードウェアは、このセットアップにおけるモデル機能の主要なボトルネックとなり、スリム化され、より効率的なニューラルネットワークの必要性を生み出します。
半確定プログラムを導入して、ニューラルネットワークのプルーニングや定量化による最悪のケースエラーをバインドする。
計算されたバウンダリは、安全クリティカルなシステムにデプロイした場合に、これらのアルゴリズムの性能に確実性をもたらすことが期待されている。
論文 参考訳(メタデータ) (2020-11-30T22:19:44Z) - Event-Based Backpropagation can compute Exact Gradients for Spiking
Neural Networks [0.0]
スパイクニューラルネットワークは、離散スパイクを用いたアナログ計算とイベントベースの通信を組み合わせる。
この研究は、連続時間スパイクニューラルネットワークと一般損失関数のバックプロパゲーションアルゴリズムを初めて導いた。
EventProp経由で計算した勾配を用いて,スパイク時間あるいは電圧に基づく損失関数を用いて,Yin-YangおよびMNISTデータセット上のネットワークをトレーニングし,競合性能を報告する。
論文 参考訳(メタデータ) (2020-09-17T15:45:00Z) - Reservoir Memory Machines as Neural Computers [70.5993855765376]
微分可能なニューラルネットワークは、干渉することなく明示的なメモリで人工ニューラルネットワークを拡張する。
我々は、非常に効率的に訓練できるモデルを用いて、微分可能なニューラルネットワークの計算能力を実現する。
論文 参考訳(メタデータ) (2020-09-14T12:01:30Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。