論文の概要: Optimal Network Compression
- arxiv url: http://arxiv.org/abs/2008.08733v5
- Date: Wed, 13 Jul 2022 06:34:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 04:15:58.405775
- Title: Optimal Network Compression
- Title(参考訳): 最適ネットワーク圧縮
- Authors: Hamed Amini and Zachary Feinstein
- Abstract要約: 本稿では,金融システムにおける最適ネットワーク圧縮問題の定式化について述べる。
我々は,金融ネットワークのショック下でのシステム的リスク対策によって生成される客観的機能に注目した。
本稿では,特定ネットワークに対する最適圧縮問題について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a formulation of the optimal network compression
problem for financial systems. This general formulation is presented for
different levels of network compression or rerouting allowed from the initial
interbank network. We prove that this problem is, generically, NP-hard. We
focus on objective functions generated by systemic risk measures under shocks
to the financial network. We use this framework to study the (sub)optimality of
the maximally compressed network. We conclude by studying the optimal
compression problem for specific networks; this permits us to study, e.g., the
so-called robust fragility of certain network topologies more generally as well
as the potential benefits and costs of network compression. In particular,
under systematic shocks and heterogeneous financial networks the robust
fragility results of Acemoglu et al. (2015) no longer hold generally.
- Abstract(参考訳): 本稿では金融システムにおける最適ネットワーク圧縮問題の定式化について述べる。
この一般的な定式化は、初期バンク間ネットワークから許可されるネットワーク圧縮または再ルーティングの異なるレベルに対して提示される。
この問題は一般にNPハードであることが証明される。
我々は,金融ネットワークに対するショック下でのシステム的リスク対策によって生じる客観的機能に着目した。
このフレームワークを用いて、最大圧縮されたネットワークの(サブ)最適性を研究する。
例えば、特定のネットワークトポロジの堅牢な不安定性やネットワーク圧縮の潜在的な利点やコストなどについて研究することができる。
特に、系統的なショックや不均一な金融ネットワークの下では、Acemoglu et al. (2015) の堅牢な脆弱性の結果は一般的には保たない。
関連論文リスト
- Rank Diminishing in Deep Neural Networks [71.03777954670323]
ニューラルネットワークのランクは、層をまたがる情報を測定する。
これは機械学習の幅広い領域にまたがる重要な構造条件の例である。
しかし、ニューラルネットワークでは、低ランク構造を生み出す固有のメカニズムはあいまいで不明瞭である。
論文 参考訳(メタデータ) (2022-06-13T12:03:32Z) - Neural Network Compression via Effective Filter Analysis and
Hierarchical Pruning [41.19516938181544]
現在のネットワーク圧縮法には、最大圧縮率を推定する理論的な枠組みが欠如している。
本研究では,ネットワークの最大冗長性を推定するための勾配行列特異点解析に基づく手法を提案する。
この最大速度で導かれ,ネットワーク性能を犠牲にすることなく,ニューロンネットワーク構造を最大化するために,新規で効率的な階層型ネットワークプルーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-06-07T21:30:47Z) - Fast Conditional Network Compression Using Bayesian HyperNetworks [54.06346724244786]
条件付き圧縮問題を導入し、それに取り組むための高速なフレームワークを提案する。
問題は、トレーニング済みの大規模ニューラルネットワークをターゲットコンテキストに応じて最適な小さなネットワークに素早く圧縮する方法である。
提案手法は, ベースライン方式よりもはるかに小型の圧縮ネットワークを高速に生成できる。
論文 参考訳(メタデータ) (2022-05-13T00:28:35Z) - On the Compression of Neural Networks Using $\ell_0$-Norm Regularization
and Weight Pruning [0.9821874476902968]
本稿では,ニューラルネットワークのための新しい圧縮スキームの開発に焦点をあてる。
トレーニング中にネットワークに強いスパース性を誘導できる新たな正規化方式が最初に開発された。
提案手法では、オーバーフィッティングを回避するために$ell$-norm正規化と、プルーンドネットワークの性能向上のための微調整も含む。
論文 参考訳(メタデータ) (2021-09-10T19:19:42Z) - Compressing Neural Networks: Towards Determining the Optimal Layer-wise
Decomposition [62.41259783906452]
本稿では,ディープニューラルネットワークのための新しいグローバル圧縮フレームワークを提案する。
各層を自動的に解析し、最適な層間圧縮比を特定する。
我々の結果は、現代のニューラルネットワークのグローバルなパフォーマンス-サイズトレードオフに関する将来の研究のための新たな道を開く。
論文 参考訳(メタデータ) (2021-07-23T20:01:30Z) - Heavy Tails in SGD and Compressibility of Overparametrized Neural
Networks [9.554646174100123]
本研究では, 勾配降下学習アルゴリズムの力学が圧縮性ネットワークの獲得に重要な役割を担っていることを示す。
我々は,ネットワークが「$ell_p$-compressible」であることが保証され,ネットワークサイズが大きくなるにつれて,異なるプルーニング手法の圧縮誤差が任意に小さくなることを示す。
論文 参考訳(メタデータ) (2021-06-07T17:02:59Z) - Convolutional Neural Network Pruning with Structural Redundancy
Reduction [11.381864384054824]
構造的冗長性は重要でないフィルタを見つけるよりも重要な役割を担っていると我々は主張する。
本研究では,CNNの構造冗長性を同定し,選択層内のプルーンフィルタを最も冗長性の高いネットワークプルーニング手法を提案する。
論文 参考訳(メタデータ) (2021-04-08T00:16:24Z) - Attribution Preservation in Network Compression for Reliable Network
Interpretation [81.84564694303397]
安全に敏感なアプリケーションに埋め込まれたニューラルネットワークは、エッジ計算のサイズを減らすために、後向きの分析とネットワーク圧縮に入力属性に依存する。
ネットワーク圧縮が生成した属性を変形させるため,これらの非関係な手法が相互に競合することを示す。
この現象は、従来のネットワーク圧縮手法が、属性の品質を無視しながら、ネットワークの予測のみを保存するという事実から生じる。
論文 参考訳(メタデータ) (2020-10-28T16:02:31Z) - Structured Sparsification with Joint Optimization of Group Convolution
and Channel Shuffle [117.95823660228537]
本稿では,効率的なネットワーク圧縮のための新しい構造空間分割法を提案する。
提案手法は, 畳み込み重みに対する構造的疎度を自動的に誘導する。
また,学習可能なチャネルシャッフル機構によるグループ間通信の問題にも対処する。
論文 参考訳(メタデータ) (2020-02-19T12:03:10Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。