論文の概要: Why should we add early exits to neural networks?
- arxiv url: http://arxiv.org/abs/2004.12814v2
- Date: Tue, 23 Jun 2020 07:42:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:10:23.070169
- Title: Why should we add early exits to neural networks?
- Title(参考訳): なぜニューラルネットワークに早期出口を追加するのか?
- Authors: Simone Scardapane, Michele Scarpiniti, Enzo Baccarelli, Aurelio Uncini
- Abstract要約: ディープニューラルネットワークは一般的に、完全なスタックを実行した後にのみ予測が得られる、微分可能なレイヤのスタックとして設計されている。
いくつかのコントリビューションでは、ネットワークに早期出口を付与し、スタックの中間点での予測を得る手法が提案されている。
これらのマルチアウトプットネットワークには、(i)推論時間の大幅な削減、(ii)勾配の過度な適合と消滅傾向の低減、(iii)多層プラットフォームに分散する能力など、多くの利点がある。
- 参考スコア(独自算出の注目度): 16.793040797308105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks are generally designed as a stack of differentiable
layers, in which a prediction is obtained only after running the full stack.
Recently, some contributions have proposed techniques to endow the networks
with early exits, allowing to obtain predictions at intermediate points of the
stack. These multi-output networks have a number of advantages, including: (i)
significant reductions of the inference time, (ii) reduced tendency to
overfitting and vanishing gradients, and (iii) capability of being distributed
over multi-tier computation platforms. In addition, they connect to the wider
themes of biological plausibility and layered cognitive reasoning. In this
paper, we provide a comprehensive introduction to this family of neural
networks, by describing in a unified fashion the way these architectures can be
designed, trained, and actually deployed in time-constrained scenarios. We also
describe in-depth their application scenarios in 5G and Fog computing
environments, as long as some of the open research questions connected to them.
- Abstract(参考訳): ディープニューラルネットワークは一般に、全スタックを実行した後のみ予測が得られる、微分可能なレイヤのスタックとして設計されている。
近年,ネットワークに早期出口を付与する手法が提案されており,スタックの中間点での予測が可能である。
これらのマルチアウトプットネットワークには,次のようなメリットがある。
(i)推論時間の大幅な短縮。
(二)過度に適合・消滅する傾向の低下、及び
(iii)多層計算プラットフォーム上で分散する能力。
さらに、生物学的可視性と層状認知推論のより広いテーマに結びついている。
本稿では、これらのアーキテクチャを設計、訓練、実際に時間に制約されたシナリオで展開する方法を統一的に記述することにより、ニューラルネットワークのファミリーを包括的に紹介する。
また、5G や Fog の計算環境におけるアプリケーションシナリオの詳細な説明も行います。
関連論文リスト
- Explaining Deep Neural Networks by Leveraging Intrinsic Methods [0.9790236766474201]
この論文はeXplainable AIの分野に貢献し、ディープニューラルネットワークの解釈可能性の向上に重点を置いている。
中心となる貢献は、これらのネットワークをより解釈しやすくすることを目的とした新しい技術の導入である。
第2に、この研究は、訓練された深層ニューラルネットワーク内のニューロンに関する新しい研究を掘り下げ、その活性化値に関連する見過ごされた現象に光を当てた。
論文 参考訳(メタデータ) (2024-07-17T01:20:17Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Network Degeneracy as an Indicator of Training Performance: Comparing
Finite and Infinite Width Angle Predictions [3.04585143845864]
ネットワークの深層化が進むにつれ、ネットワークは縮退しやすくなっている。
完全に接続されたReLUネットワークアーキテクチャのデジェネリシーのレベルを正確に予測できる単純なアルゴリズムを用いる。
論文 参考訳(メタデータ) (2023-06-02T13:02:52Z) - Semantic Strengthening of Neuro-Symbolic Learning [85.6195120593625]
ニューロシンボリックアプローチは一般に確率論的目的のファジィ近似を利用する。
トラクタブル回路において,これを効率的に計算する方法を示す。
我々は,Warcraftにおける最小コストパスの予測,最小コスト完全マッチングの予測,スドクパズルの解法という3つの課題に対して,アプローチを検証した。
論文 参考訳(メタデータ) (2023-02-28T00:04:22Z) - Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Predictive Coding: Towards a Future of Deep Learning beyond
Backpropagation? [41.58529335439799]
ディープニューラルネットワークのトレーニングに使用されるエラーアルゴリズムのバックプロパゲーションは、ディープラーニングの成功に不可欠である。
最近の研究は、このアイデアを、局所的な計算だけでニューラルネットワークを訓練できる汎用アルゴリズムへと発展させた。
等価ディープニューラルネットワークに対する予測符号化ネットワークの柔軟性が大幅に向上することを示す。
論文 参考訳(メタデータ) (2022-02-18T22:57:03Z) - What can linearized neural networks actually say about generalization? [67.83999394554621]
ある無限大のニューラルネットワークにおいて、ニューラル・タンジェント・カーネル(NTK)理論は一般化を完全に特徴づける。
線形近似は、ニューラルネットワークの特定のタスクの学習複雑性を確実にランク付けできることを示す。
我々の研究は、将来の理論的研究を刺激する新しい深層学習現象の具体例を提供する。
論文 参考訳(メタデータ) (2021-06-12T13:05:11Z) - Prior knowledge distillation based on financial time series [0.8756822885568589]
我々は,ニューラルネットワークを用いて指標を表現し,より小さなネットワークを特徴層として構築した大規模ネットワークを訓練することを提案する。
数値実験により,本アルゴリズムは実際の財務データセットの従来の手法よりも高速かつ高精度であることが判明した。
論文 参考訳(メタデータ) (2020-06-16T15:26:06Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - NeuroFabric: Identifying Ideal Topologies for Training A Priori Sparse
Networks [2.398608007786179]
ディープニューラルネットワークの長いトレーニング時間は、機械学習研究のボトルネックである。
層内トポロジーの選択に関する理論的基礎を提供する。
類似したトポロジが達成可能な精度に大きな差があることがよく示される。
論文 参考訳(メタデータ) (2020-02-19T18:29:18Z) - Large-Scale Gradient-Free Deep Learning with Recursive Local
Representation Alignment [84.57874289554839]
大規模データセット上でディープニューラルネットワークをトレーニングするには、重要なハードウェアリソースが必要である。
これらのネットワークをトレーニングするためのワークホースであるバックプロパゲーションは、本質的に並列化が難しいシーケンシャルなプロセスである。
本稿では、深層ネットワークのトレーニングに使用できるバックプロップに代わる、神経生物学的に有望な代替手段を提案する。
論文 参考訳(メタデータ) (2020-02-10T16:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。