論文の概要: Gradient Backpropagation Through Combinatorial Algorithms: Identity with
Projection Works
- arxiv url: http://arxiv.org/abs/2205.15213v1
- Date: Mon, 30 May 2022 16:17:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 18:00:58.456475
- Title: Gradient Backpropagation Through Combinatorial Algorithms: Identity with
Projection Works
- Title(参考訳): 組合せアルゴリズムによる勾配バックプロパゲーション:射影による同一性
- Authors: Subham Sekhar Sahoo and Marin Vlastelica and Anselm Paulus and V\'it
Musil and Volodymyr Kuleshov and Georg Martius
- Abstract要約: ゼロあるいは未定義の解法に対する意味のある置き換えは、効果的な勾配に基づく学習に不可欠である。
本稿では, 離散解空間の幾何学を応用して, 後方パス上の負の同一性として処理する原理的手法を提案する。
- 参考スコア(独自算出の注目度): 20.324159725851235
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Embedding discrete solvers as differentiable layers has given modern deep
learning architectures combinatorial expressivity and discrete reasoning
capabilities. The derivative of these solvers is zero or undefined, therefore a
meaningful replacement is crucial for effective gradient-based learning. Prior
works rely on smoothing the solver with input perturbations, relaxing the
solver to continuous problems, or interpolating the loss landscape with
techniques that typically require additional solver calls, introduce extra
hyper-parameters or compromise performance. We propose a principled approach to
exploit the geometry of the discrete solution space to treat the solver as a
negative identity on the backward pass and further provide a theoretical
justification. Our experiments demonstrate that such a straightforward
hyper-parameter-free approach is on-par with or outperforms previous more
complex methods on numerous experiments such as Traveling Salesman Problem,
Shortest Path, Deep Graph Matching, and backpropagating through discrete
samplers. Furthermore, we substitute the previously proposed problem-specific
and label-dependent margin by a generic regularization procedure that prevents
cost collapse and increases robustness.
- Abstract(参考訳): 離散解法を微分可能なレイヤとして組み込むと、現代のディープラーニングアーキテクチャの組合せ表現性と離散推論能力が得られる。
これらの解法の導出はゼロあるいは未定義であるため、効果的な勾配に基づく学習には意味のある置換が不可欠である。
事前の作業は、入力の摂動によるソルバの平滑化、連続的な問題へのソルバの緩和、あるいは通常追加のソルバ呼び出しを必要とするテクニックによるロスランドスケープの補間、追加のハイパーパラメータの導入、パフォーマンスの妥協などに依存している。
本研究では, 離散解空間の幾何を, 逆経路上の負の同一性として扱うための原理的手法を提案し, 理論的な正当化を提供する。
このような超パラメータフリーなアプローチは,旅行セールスマン問題,最短経路,ディープグラフマッチング,離散サンプルによるバックプロパゲーションなど,これまでより複雑な手法と同等かそれ以上であることを示す。
さらに,従来提案されていた問題固有およびラベル依存マージンを,コストの崩壊を防止し,ロバスト性を高める汎用正規化法で置き換える。
関連論文リスト
- Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Scalable Bayesian Meta-Learning through Generalized Implicit Gradients [64.21628447579772]
Inlicit Bayesian Meta-learning (iBaML) 法は、学習可能な事前のスコープを広げるだけでなく、関連する不確実性も定量化する。
解析誤差境界は、明示的よりも一般化された暗黙的勾配の精度と効率を示すために確立される。
論文 参考訳(メタデータ) (2023-03-31T02:10:30Z) - Analyzing Inexact Hypergradients for Bilevel Learning [0.09669369645900441]
暗黙の関数定理と自動微分/バックプロパゲーションに基づいて既存の手法を一般化する過次計算のための統一的なフレームワークを提案する。
計算結果から,高次アルゴリズムの選択は低次解法の選択と同等に重要であることが明らかとなった。
論文 参考訳(メタデータ) (2023-01-11T23:54:27Z) - Learning to Optimize with Stochastic Dominance Constraints [103.26714928625582]
本稿では,不確実量を比較する問題に対して,単純かつ効率的なアプローチを開発する。
我々はラグランジアンの内部最適化をサロゲート近似の学習問題として再考した。
提案したライト-SDは、ファイナンスからサプライチェーン管理に至るまで、いくつかの代表的な問題において優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-14T21:54:31Z) - Smooth over-parameterized solvers for non-smooth structured optimization [3.756550107432323]
非滑らか性 (non-smoothness) は、空間性、群空間性、低ランクエッジ、鋭いエッジなどの解の構造的制約を符号化する。
我々は、基礎となる非滑らかな最適化問題の非重み付きだが滑らかな過度パラメータ化を運用する。
我々の主な貢献は変数の一部を明示的に最小化することで新しい定式化を定義する変数射影(VarPro)を適用することです。
論文 参考訳(メタデータ) (2022-05-03T09:23:07Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z) - Implicit differentiation of Lasso-type models for hyperparameter
optimization [82.73138686390514]
ラッソ型問題に適した行列逆転のない効率的な暗黙微分アルゴリズムを提案する。
提案手法は,解の空間性を利用して高次元データにスケールする。
論文 参考訳(メタデータ) (2020-02-20T18:43:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。