論文の概要: Soft-Radial Projection for Constrained End-to-End Learning
- arxiv url: http://arxiv.org/abs/2602.03461v1
- Date: Tue, 03 Feb 2026 12:33:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.4435
- Title: Soft-Radial Projection for Constrained End-to-End Learning
- Title(参考訳): 制約付きエンドツーエンド学習のためのソフトラジアル投影
- Authors: Philipp J. Schneider, Daniel Kuhn,
- Abstract要約: 我々は、勾配飽和を回避できる微分可能なreパラメタライゼーション層であるSoft-Radial Projectionを紹介する。
この構造は、ほぼどこでもフルランクのヤコビアンを保存しながら、厳密な実現性を保証する。
我々は、最先端の最適化と投影に基づくベースラインよりも優れた収束挙動と解の質を実証的に示す。
- 参考スコア(独自算出の注目度): 2.3367876359631645
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Integrating hard constraints into deep learning is essential for safety-critical systems. Yet existing constructive layers that project predictions onto constraint boundaries face a fundamental bottleneck: gradient saturation. By collapsing exterior points onto lower-dimensional surfaces, standard orthogonal projections induce rank-deficient Jacobians, which nullify gradients orthogonal to active constraints and hinder optimization. We introduce Soft-Radial Projection, a differentiable reparameterization layer that circumvents this issue through a radial mapping from Euclidean space into the interior of the feasible set. This construction guarantees strict feasibility while preserving a full-rank Jacobian almost everywhere, thereby preventing the optimization stalls typical of boundary-based methods. We theoretically prove that the architecture retains the universal approximation property and empirically show improved convergence behavior and solution quality over state-of-the-art optimization- and projection-based baselines.
- Abstract(参考訳): 深層学習に厳しい制約を組み込むことは、安全クリティカルなシステムにとって不可欠である。
しかし、制約境界に予測を投影する既存の構成的レイヤは、根本的なボトルネックに直面します。
外点を下次元曲面に折り畳むことで、標準直交射影は階数不足ヤコビアンを誘導し、これは直交的な制約への勾配を無効化し、最適化を妨げる。
我々は、ユークリッド空間から実現可能な集合の内部への半径写像を通してこの問題を回避する、微分可能な再パラメータ化層であるSoft-Radial Projectionを導入する。
この構成は、ほぼ至るところでフルランクのヤコビアンを保ちながら厳密な実現性を保証するため、境界法に典型的な最適化が停止するのを防ぐ。
理論的には、このアーキテクチャは普遍近似特性を保持しており、最先端の最適化とプロジェクションに基づくベースラインよりも優れた収束挙動と解の質を実証的に示す。
関連論文リスト
- Global Optimization By Gradient from Hierarchical Score-Matching Spaces [6.444818462799464]
この研究は、制約のない一般的な階層的最適化目的として、様々な複雑な制約を持つ全ての最適化問題を解く。
これは大域的最適化と拡散に基づく生成モデルとの深い関係を明らかにする。
論文 参考訳(メタデータ) (2026-01-14T15:26:01Z) - Mirror Descent Under Generalized Smoothness [23.5387392871236]
一般ノルムと双対という観点からヘッセンのノルムを測定する新しい$ell*$-smoothnessの概念を導入する。
我々は、古典的な滑らかさの下でのレートに一致するミラー・ディフレッシュ型アルゴリズムの収束性を確立する。
論文 参考訳(メタデータ) (2025-02-02T11:23:10Z) - Generalization Bounds of Surrogate Policies for Combinatorial Optimization Problems [53.03951222945921]
我々はスムーズな(摂動された)ポリシーを解析し、線形オラクルが使用する方向に対して制御されたランダムな摂動を付加する。
我々の主な貢献は、過剰リスクを摂動バイアス、統計的推定誤差、最適化誤差に分解する一般化境界である。
車両のスケジューリングやスムーズ化がトラクタブルトレーニングと制御された一般化の両方を可能にしていることを示す。
論文 参考訳(メタデータ) (2024-07-24T12:00:30Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Projection-Free Online Convex Optimization with Stochastic Constraints [0.0]
我々は制約付きオンライン凸最適化のためのプロジェクションフリーアルゴリズムを開発した。
各種設定に対してサブ線形後悔と制約違反境界を推定する。
我々は、制約違反を減らして、後悔と同じ成長をすることができることを証明している。
論文 参考訳(メタデータ) (2023-05-02T11:27:34Z) - Multilevel Geometric Optimization for Regularised Constrained Linear Inverse Problems [3.3161769688599025]
我々は、様々な離散化レベルを持つモデルの階層を考察する。フィナーモデルは正確だが計算に費用がかかるが、粗いモデルは正確ではなく計算に安価である。
細かなレベルで作業する場合、マルチレベル最適化は、細かなレベルで更新を高速化する粗いモデルに基づいて探索方向を計算する。
論文 参考訳(メタデータ) (2022-07-11T15:15:33Z) - Inverse design of photonic devices with strict foundry fabrication
constraints [55.41644538483948]
本稿では,ナノフォトニクス素子の逆設計法を提案し,設計が厳密な長さの制約を満たすことを保証した。
本手法の性能と信頼性を,いくつかの共通集積フォトニック部品を設計することによって実証する。
論文 参考訳(メタデータ) (2022-01-31T02:27:25Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。