論文の概要: Monotone operator equilibrium networks
- arxiv url: http://arxiv.org/abs/2006.08591v2
- Date: Mon, 3 May 2021 22:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 03:25:36.916614
- Title: Monotone operator equilibrium networks
- Title(参考訳): モノトーン演算子平衡ネットワーク
- Authors: Ezra Winston, J. Zico Kolter
- Abstract要約: 我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
- 参考スコア(独自算出の注目度): 97.86610752856987
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Implicit-depth models such as Deep Equilibrium Networks have recently been
shown to match or exceed the performance of traditional deep networks while
being much more memory efficient. However, these models suffer from unstable
convergence to a solution and lack guarantees that a solution exists. On the
other hand, Neural ODEs, another class of implicit-depth models, do guarantee
existence of a unique solution but perform poorly compared with traditional
networks. In this paper, we develop a new class of implicit-depth model based
on the theory of monotone operators, the Monotone Operator Equilibrium Network
(monDEQ). We show the close connection between finding the equilibrium point of
an implicit network and solving a form of monotone operator splitting problem,
which admits efficient solvers with guaranteed, stable convergence. We then
develop a parameterization of the network which ensures that all operators
remain monotone, which guarantees the existence of a unique equilibrium point.
Finally, we show how to instantiate several versions of these models, and
implement the resulting iterative solvers, for structured linear operators such
as multi-scale convolutions. The resulting models vastly outperform the Neural
ODE-based models while also being more computationally efficient. Code is
available at http://github.com/locuslab/monotone_op_net.
- Abstract(参考訳): 近年,Deep Equilibrium Networksのような暗黙の深度モデルでは,従来型のディープネットワークの性能に適合し,メモリ効率が高いことが示されている。
しかし、これらのモデルは解への不安定な収束に悩まされ、解が存在することを保証できない。
一方、暗黙深度モデルの別のクラスであるNeural ODEsは、ユニークなソリューションの存在を保証するが、従来のネットワークと比較すると性能が劣る。
本稿では,単調作用素の理論である単調作用素平衡ネットワーク(mondeq, monotone operator equilibrium network)に基づく新しい暗黙的深さモデルを開発した。
本研究では, 暗黙的ネットワークの平衡点を求めることと, 安定収束が保証された効率的な解法を許容する単調作用素分割問題の解法との密接な関係を示す。
次に、すべての演算子が単調であることを保証するネットワークのパラメータ化を開発し、一意の平衡点の存在を保証する。
最後に,これらのモデルのいくつかのバージョンをインスタンス化する方法を示し,マルチスケール畳み込みなどの構造化線形作用素に対して反復解法を実装する。
結果として得られるモデルは、Neural ODEベースのモデルよりもはるかに優れ、計算効率も優れている。
コードはhttp://github.com/locuslab/monotone_op_netで入手できる。
関連論文リスト
- Vertical Layering of Quantized Neural Networks for Heterogeneous
Inference [57.42762335081385]
量子化モデル全体を1つのモデルにカプセル化するための,ニューラルネットワーク重みの新しい垂直層表現について検討する。
理論的には、1つのモデルのトレーニングとメンテナンスのみを必要としながら、オンデマンドサービスの正確なネットワークを達成できます。
論文 参考訳(メタデータ) (2022-12-10T15:57:38Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - Stabilizing Equilibrium Models by Jacobian Regularization [151.78151873928027]
ディープ均衡ネットワーク(Deep equilibrium Network, DEQs)は、単一非線形層の固定点を見つけるために従来の深さを推定する新しいモデルのクラスである。
本稿では、平衡モデルの学習を安定させるために、固定点更新方程式のヤコビアンを明示的に正規化するDECモデルの正規化スキームを提案する。
この正規化は計算コストを最小限に抑え、前方と後方の両方の固定点収束を著しく安定化させ、高次元の現実的な領域に順応することを示した。
論文 参考訳(メタデータ) (2021-06-28T00:14:11Z) - Robust Implicit Networks via Non-Euclidean Contractions [63.91638306025768]
暗黙のニューラルネットワークは、精度の向上とメモリ消費の大幅な削減を示す。
彼らは不利な姿勢と収束の不安定さに悩まされる。
本論文は,ニューラルネットワークを高機能かつ頑健に設計するための新しい枠組みを提供する。
論文 参考訳(メタデータ) (2021-06-06T18:05:02Z) - Certified Monotonic Neural Networks [15.537695725617576]
本稿では,混合整数線形計画問題の解法により,一般のピースワイド線形ニューラルネットワークの単調性を証明することを提案する。
我々のアプローチでは、重み空間に対する人間設計の制約を必要とせず、より正確な近似が得られる。
論文 参考訳(メタデータ) (2020-11-20T04:58:13Z) - Consistency of Spectral Clustering on Hierarchical Stochastic Block
Models [5.983753938303726]
実世界のネットワークにおけるコミュニティの階層構造について,汎用ブロックモデルを用いて検討する。
本手法の強い一貫性を,幅広いモデルパラメータで証明する。
既存のほとんどの研究とは異なり、我々の理論は接続確率が桁違いに異なるかもしれないマルチスケールネットワークをカバーしている。
論文 参考訳(メタデータ) (2020-04-30T01:08:59Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。