論文の概要: Fiedler Regularization: Learning Neural Networks with Graph Sparsity
- arxiv url: http://arxiv.org/abs/2003.00992v3
- Date: Sat, 15 Aug 2020 08:39:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 04:31:32.883687
- Title: Fiedler Regularization: Learning Neural Networks with Graph Sparsity
- Title(参考訳): fiedler正規化:グラフスパーシティを用いたニューラルネットワークの学習
- Authors: Edric Tam and David Dunson
- Abstract要約: ニューラルネットワークの基盤となるグラフィカル構造を包含し、尊重する、ディープラーニングのための新しい正規化アプローチを導入する。
我々は、ニューラルネットワークの基盤となるグラフのFiedler値を正規化のツールとして使うことを提案する。
- 参考スコア(独自算出の注目度): 6.09170287691728
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a novel regularization approach for deep learning that
incorporates and respects the underlying graphical structure of the neural
network. Existing regularization methods often focus on dropping/penalizing
weights in a global manner that ignores the connectivity structure of the
neural network. We propose to use the Fiedler value of the neural network's
underlying graph as a tool for regularization. We provide theoretical support
for this approach via spectral graph theory. We list several useful properties
of the Fiedler value that makes it suitable in regularization. We provide an
approximate, variational approach for fast computation in practical training of
neural networks. We provide bounds on such approximations. We provide an
alternative but equivalent formulation of this framework in the form of a
structurally weighted L1 penalty, thus linking our approach to sparsity
induction. We performed experiments on datasets that compare Fiedler
regularization with traditional regularization methods such as dropout and
weight decay. Results demonstrate the efficacy of Fiedler regularization.
- Abstract(参考訳): ニューラルネットワークの基盤となるグラフィカル構造を包含し、尊重する、ディープラーニングのための新しい正規化アプローチを導入する。
既存の正規化手法では、ニューラルネットワークの接続構造を無視するグローバルな方法で重みをドロップ/ペナルティ化することに注力することが多い。
ニューラルネットワークの基盤となるグラフのFiedler値を正規化のツールとして用いることを提案する。
我々はスペクトルグラフ理論によるこのアプローチの理論的支援を提供する。
正規化に適合するFiedler値のいくつかの有用な性質をリストアップする。
ニューラルネットワークの実用訓練における高速計算のための近似的・変分的アプローチを提案する。
私たちはそのような近似に境界を与える。
我々は、構造的に重み付けされたl1ペナルティという形で、この枠組みの代替的かつ等価な定式化を提供する。
本研究では,Fiedler正則化と従来の正則化手法との比較実験を行った。
その結果,Fiedler正則化の有効性が示された。
関連論文リスト
- Convergence Analysis for Learning Orthonormal Deep Linear Neural
Networks [27.29463801531576]
本稿では,正規直交深部線形ニューラルネットワークの学習のための収束解析について述べる。
その結果、隠れた層の増加が収束速度にどのように影響するかが明らかになった。
論文 参考訳(メタデータ) (2023-11-24T18:46:54Z) - Spectral Gap Regularization of Neural Networks [6.09170287691728]
Fiedler regularizationは、スペクトル/グラフィック情報を利用するニューラルネットワークを正規化するための新しいアプローチである。
トレーニング中の計算を高速化するために,近似的,変動的なアプローチを提供する。
本研究では,Fiedler正則化と,ドロップアウトやウェイト崩壊といった古典的正則化手法を比較検討した。
論文 参考訳(メタデータ) (2023-04-06T14:23:40Z) - Gradient Descent in Neural Networks as Sequential Learning in RKBS [63.011641517977644]
初期重みの有限近傍にニューラルネットワークの正確な電力系列表現を構築する。
幅にかかわらず、勾配降下によって生成されたトレーニングシーケンスは、正規化された逐次学習によって正確に複製可能であることを証明した。
論文 参考訳(メタデータ) (2023-02-01T03:18:07Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Fast Adaptation with Linearized Neural Networks [35.43406281230279]
ニューラルネットワークの線形化の帰納的バイアスについて検討し,全ネットワーク関数の驚くほどよい要約であることを示した。
この発見に触発されて,これらの帰納的バイアスをネットワークのヤコビアンから設計されたカーネルを通してガウス過程に埋め込む手法を提案する。
この設定では、領域適応は不確実性推定を伴う解釈可能な後方推論の形式を取る。
論文 参考訳(メタデータ) (2021-03-02T03:23:03Z) - A Convergence Theory Towards Practical Over-parameterized Deep Neural
Networks [56.084798078072396]
ネットワーク幅と収束時間の両方で既知の理論境界を大幅に改善することにより、理論と実践のギャップを埋める一歩を踏み出します。
本研究では, サンプルサイズが2次幅で, 両者の時間対数で線形なネットワークに対して, 地球最小値への収束が保証されていることを示す。
私たちの分析と収束境界は、いつでも合理的なサイズの同等のRELUネットワークに変換できる固定アクティベーションパターンを備えたサロゲートネットワークの構築によって導出されます。
論文 参考訳(メタデータ) (2021-01-12T00:40:45Z) - Compressive Sensing and Neural Networks from a Statistical Learning
Perspective [4.561032960211816]
線形測定の少ないスパース再構成に適したニューラルネットワークのクラスに対する一般化誤差解析を提案する。
現実的な条件下では、一般化誤差は層数で対数的にしかスケールせず、測定数ではほとんど線形である。
論文 参考訳(メタデータ) (2020-10-29T15:05:43Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z) - Volumization as a Natural Generalization of Weight Decay [25.076488081589403]
物理に触発されて、ニューラルネットワークの重みパラメータの物理体積を定義する。
本稿では,この手法がニューラルネットワークの正則化に有効な方法であることを示す。
論文 参考訳(メタデータ) (2020-03-25T07:13:55Z) - Distance-Based Regularisation of Deep Networks for Fine-Tuning [116.71288796019809]
我々は,仮説クラスを,初期訓練前の重みを中心にした小さな球面に制約するアルゴリズムを開発した。
実験的な評価は、我々のアルゴリズムがうまく機能していることを示し、理論的な結果を裏付けるものである。
論文 参考訳(メタデータ) (2020-02-19T16:00:47Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。