論文の概要: A Theoretical View of Linear Backpropagation and Its Convergence
- arxiv url: http://arxiv.org/abs/2112.11018v1
- Date: Tue, 21 Dec 2021 07:18:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-22 14:19:22.813569
- Title: A Theoretical View of Linear Backpropagation and Its Convergence
- Title(参考訳): 線形バックプロパゲーションの理論的考察とその収束性
- Authors: Ziang Li, Yiwen Guo, Haodi Liu, and Changshui Zhang
- Abstract要約: BPの線形変種LinBPは、ブラックボックスの敵攻撃の転送可能な敵の例を生成するために導入された。
本稿では,LinBPのニューラルネットワーク関連学習タスクにおける理論的解析について述べる。
- 参考スコア(独自算出の注目度): 46.47415397767718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backpropagation is widely used for calculating gradients in deep neural
networks (DNNs). Applied often along with stochastic gradient descent (SGD) or
its variants, backpropagation is considered as a de-facto choice in a variety
of machine learning tasks including DNN training and adversarial
attack/defense. Recently, a linear variant of BP named LinBP was introduced for
generating more transferable adversarial examples for black-box adversarial
attacks, by Guo et al. Yet, it has not been theoretically studied and the
convergence analysis of such a method is lacking. This paper serves as a
complement and somewhat an extension to Guo et al.'s paper, by providing
theoretical analyses on LinBP in neural-network-involved learning tasks
including adversarial attack and model training. We demonstrate that, somewhat
surprisingly, LinBP can lead to faster convergence in these tasks in the same
hyper-parameter settings, compared to BP. We confirm our theoretical results
with extensive experiments.
- Abstract(参考訳): バックプロパゲーションはディープニューラルネットワーク(DNN)の勾配を計算するために広く使われている。
確率勾配降下(SGD)またはその変種とともにしばしば適用され、バックプロパゲーションはDNNトレーニングや敵攻撃/防御を含むさまざまな機械学習タスクにおいてデファクト選択とみなされる。
近年、guoらによってブラックボックスの敵対攻撃に対するより転送可能な攻撃例を生成するために、linbpと呼ばれるbpの線形変種が導入された。
しかし、理論的には研究されておらず、そのような方法の収束解析が欠如している。
本論文は,LinBPのニューラルネットワーク関連学習課題における敵攻撃やモデルトレーニングに関する理論的解析を提供することにより,Guoらによる論文の補完的かつ幾分拡張として機能する。
意外なことに、LinBPは、BPと比較して、これらのタスクを同じハイパーパラメータ設定でより早く収束させることができる。
理論結果を広範な実験で確認する。
関連論文リスト
- A Theoretical Framework for Inference and Learning in Predictive Coding
Networks [41.58529335439799]
予測符号化(PC)は、計算神経科学において重要な理論である。
予測構成で訓練されたPCNの特性に関する包括的理論的解析を行う。
論文 参考訳(メタデータ) (2022-07-21T04:17:55Z) - Constrained Parameter Inference as a Principle for Learning [5.080518039966762]
本稿では,制約パラメータ推論(COPI)を学習の新たな原則として提案する。
COPIは、神経状態の非相関な入力とトップダウン摂動の制約下でのネットワークパラメータの推定を可能にする。
我々はCOPIが生物学的に妥当であるだけでなく、誤りの標準的なバックプロパゲーションと比較して、高速学習の利点も示していることを示した。
論文 参考訳(メタデータ) (2022-03-22T13:40:57Z) - On the Convergence of Certified Robust Training with Interval Bound
Propagation [147.77638840942447]
IBPトレーニングの収束に関する理論的解析を行った。
IBPトレーニングを用いてランダムに2層ReLUニューラルネットワークをロジスティック損失でトレーニングする場合、勾配降下はゼロロバストトレーニングエラーに線形収束可能であることを示す。
論文 参考訳(メタデータ) (2022-03-16T21:49:13Z) - Towards Evaluating and Training Verifiably Robust Neural Networks [81.39994285743555]
We study the relationship between IBP and CROWN, and prove that CROWN are always tight than IBP when select each bounding lines。
線形結合伝播(LBP) CROWNの緩やかなバージョンを提案する。これは、大きなネットワークを検証して、より低い検証エラーを得るのに使用できる。
論文 参考訳(メタデータ) (2021-04-01T13:03:48Z) - Predictive Coding Can Do Exact Backpropagation on Convolutional and
Recurrent Neural Networks [40.51949948934705]
予測符号化ネットワーク(PCN)は、脳内の情報処理に影響を及ぼすモデルである。
BPは現代の機械学習において最も成功した学習方法と考えられている。
生物学的に妥当なアルゴリズムは複雑なアーキテクチャ上でBPの精度を正確に再現できることを示す。
論文 参考訳(メタデータ) (2021-03-05T14:57:01Z) - Belief Propagation Neural Networks [103.97004780313105]
信念伝播ニューラルネットワーク(BPNN)を紹介する。
BPNNは因子グラフ上で動作し、信念伝播(BP)を一般化する
BPNNはIsingモデル上で1.7倍高速に収束し、より厳密な境界を提供することを示す。
挑戦的なモデルカウント問題に関して、BPNNは最先端の手作り手法の100倍の速さを推定する。
論文 参考訳(メタデータ) (2020-07-01T07:39:51Z) - A Theoretical Framework for Target Propagation [75.52598682467817]
我々は、バックプロパゲーション(BP)の代替として人気があるが、まだ完全には理解されていないターゲット伝搬(TP)を解析する。
提案理論は,TPがガウス・ニュートン最適化と密接に関係していることを示し,BPとは大きく異なる。
我々は,フィードバックウェイトトレーニングを改善する新しいリコンストラクション損失を通じて,この問題に対する第1の解決策を提供する。
論文 参考訳(メタデータ) (2020-06-25T12:07:06Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。