論文の概要: Exploiting Problem Structure in Deep Declarative Networks: Two Case
Studies
- arxiv url: http://arxiv.org/abs/2202.12404v1
- Date: Thu, 24 Feb 2022 22:53:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-01 00:54:11.628294
- Title: Exploiting Problem Structure in Deep Declarative Networks: Two Case
Studies
- Title(参考訳): 深部宣言型ネットワークにおける爆発的問題構造:2例
- Authors: Stephen Gould, Dylan Campbell, Itzik Ben-Shabat, Chamin Hewa
Koneputugodage, Zhiwei Xu
- Abstract要約: より深い宣言的ネットワーク - 頑健なベクトルプールと最適な輸送 - の2つの応用について検討する。
我々のアイデアは、他の新しいDeep Declarative nodeの計算性能を向上させるためのガイドとして利用できる。
- 参考スコア(独自算出の注目度): 34.49107529694559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep declarative networks and other recent related works have shown how to
differentiate the solution map of a (continuous) parametrized optimization
problem, opening up the possibility of embedding mathematical optimization
problems into end-to-end learnable models. These differentiability results can
lead to significant memory savings by providing an expression for computing the
derivative without needing to unroll the steps of the forward-pass optimization
procedure during the backward pass. However, the results typically require
inverting a large Hessian matrix, which is computationally expensive when
implemented naively. In this work we study two applications of deep declarative
networks -- robust vector pooling and optimal transport -- and show how problem
structure can be exploited to obtain very efficient backward pass computations
in terms of both time and memory. Our ideas can be used as a guide for
improving the computational performance of other novel deep declarative nodes.
- Abstract(参考訳): 深い宣言的ネットワークやその他の最近の研究は、(連続)パラメトリズド最適化問題の解写像を区別する方法を示し、エンドツーエンド学習可能なモデルに数学的最適化問題を埋め込む可能性を開く。
これらの微分可能性の結果は、後方通過時にフォワードパス最適化手順のステップを外すことなく微分を計算する式を提供することにより、大幅なメモリ節約につながる。
しかし、結果は一般に大きなヘッセン行列を逆転させることが要求される。
本研究では,2つのディープ宣言型ネットワーク(ロバストベクトルプーリングと最適トランスポート)の応用について検討し,問題構造を用いて時間とメモリの両方において,非常に効率的な後方通過計算を実現する方法を示す。
我々のアイデアは、他の新しい深層宣言型ノードの計算性能を改善するためのガイドとして使用できる。
関連論文リスト
- SequentialAttention++ for Block Sparsification: Differentiable Pruning
Meets Combinatorial Optimization [24.55623897747344]
ニューラルネットワークプルーニングは、大規模で拡張性があり、解釈可能で、一般化可能なモデルを構築するための重要な技術である。
群スパース最適化の非正規化として,既存の微分可能なプルーニング手法がいくつあるかを示す。
我々は、ImageNetとCriteoデータセット上の大規模ニューラルネットワークブロックワイドプルーニングタスクの最先端技術であるSequentialAttention++を提案する。
論文 参考訳(メタデータ) (2024-02-27T21:42:18Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Efficient Neural Network Analysis with Sum-of-Infeasibilities [64.31536828511021]
凸最適化における総和係数法に着想を得て,広範な分岐関数を持つネットワーク上での検証クエリを解析するための新しい手法を提案する。
標準ケース分析に基づく完全探索手順の拡張は、各検索状態で実行される凸手順をDeepSoIに置き換えることによって達成できる。
論文 参考訳(メタデータ) (2022-03-19T15:05:09Z) - SHINE: SHaring the INverse Estimate from the forward pass for bi-level
optimization and implicit models [15.541264326378366]
近年,深層ニューラルネットワークの深度を高める手法として暗黙の深度学習が登場している。
トレーニングは双レベル問題として実行され、その計算複雑性は巨大なヤコビ行列の反復反転によって部分的に駆動される。
本稿では,この計算ボトルネックに対処する新たな手法を提案する。
論文 参考訳(メタデータ) (2021-06-01T15:07:34Z) - Unified Convergence Analysis for Adaptive Optimization with Moving Average Estimator [75.05106948314956]
1次モーメントに対する大きな運動量パラメータの増大は適応的スケーリングに十分であることを示す。
また,段階的に減少するステップサイズに応じて,段階的に運動量を増加させるための洞察を与える。
論文 参考訳(メタデータ) (2021-04-30T08:50:24Z) - Efficient and Sparse Neural Networks by Pruning Weights in a
Multiobjective Learning Approach [0.0]
本稿では、予測精度とネットワーク複雑性を2つの個別目的関数として扱うことにより、ニューラルネットワークのトレーニングに関する多目的視点を提案する。
模範的畳み込みニューラルネットワークの予備的な数値結果から、ニューラルネットワークの複雑性の大幅な低減と精度の低下が可能であることが確認された。
論文 参考訳(メタデータ) (2020-08-31T13:28:03Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。