論文の概要: SnareNet: Flexible Repair Layers for Neural Networks with Hard Constraints
- arxiv url: http://arxiv.org/abs/2602.09317v1
- Date: Tue, 10 Feb 2026 01:24:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.312265
- Title: SnareNet: Flexible Repair Layers for Neural Networks with Hard Constraints
- Title(参考訳): SnareNet: ハード制約のあるニューラルネットワークのためのフレキシブルな修復レイヤ
- Authors: Ya-Chi Chu, Alkiviades Boukas, Madeleine Udell,
- Abstract要約: 本稿では,SnareNetを提案する。
制約マップのレンジ空間をナビゲートし、実現可能性に向けて操縦し、ユーザが指定した寛容性に対する制約を満たす修復可能な出力を生成する。
制約を以前の作業よりも確実に満たしながら、改善された客観的品質を継続的に達成します。
- 参考スコア(独自算出の注目度): 10.762945956640051
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Neural networks are increasingly used as surrogate solvers and control policies, but unconstrained predictions can violate physical, operational, or safety requirements. We propose SnareNet, a feasibility-controlled architecture for learning mappings whose outputs must satisfy input-dependent nonlinear constraints. SnareNet appends a differentiable repair layer that navigates in the constraint map's range space, steering iterates toward feasibility and producing a repaired output that satisfies constraints to a user-specified tolerance. To stabilize end-to-end training, we introduce adaptive relaxation, which designs a relaxed feasible set that snares the neural network at initialization and shrinks it into the feasible set, enabling early exploration and strict feasibility later in training. On optimization-learning and trajectory planning benchmarks, SnareNet consistently attains improved objective quality while satisfying constraints more reliably than prior work.
- Abstract(参考訳): ニューラルネットワークは、サロゲートソルバや制御ポリシとしてますます使用されているが、制約のない予測は、物理的、運用的、安全要件に違反する可能性がある。
SnareNetは,入力依存の非線形制約を出力が満たさなければならない写像を学習するための実現可能性制御アーキテクチャである。
SnareNetは、制約マップの範囲内を移動し、実行可能性に向けて反復し、ユーザが指定した許容範囲に対する制約を満たす修正出力を生成する、微分可能な修復層を付加する。
ニューラルネットワークを初期化時にスナリングし、それを実行可能なセットに縮小し、早期探索と訓練後の厳密な実現を可能にする、適応的緩和を導入する。
最適化学習と軌道計画ベンチマークでは、SnareNetは改善された目標品質を継続的に達成し、以前の作業よりも信頼性の高い制約を満たす。
関連論文リスト
- Adaptive Neighborhood-Constrained Q Learning for Offline Reinforcement Learning [52.03884701766989]
オフライン強化学習(RL)アルゴリズムは、通常、アクション選択に制約を課す。
本稿では,Bellmanターゲットにおける行動選択を,データセットアクションの近傍の結合に制限する新しい地区制約を提案する。
我々は,この制約を満たす目標動作を用いてQ学習を行うための,単純で効果的なアルゴリズムであるAdaptive Neighborhood-Constrained Q Learning(ANQ)を開発した。
論文 参考訳(メタデータ) (2025-11-04T13:42:05Z) - HardNet: Hard-Constrained Neural Networks with Universal Approximation Guarantees [4.814150850377003]
HardNetは、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
HardNetはニューラルネットワークの普遍近似能力を維持していることを示す。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Iterative Soft Shrinkage Learning for Efficient Image Super-Resolution [91.3781512926942]
画像超解像(SR)は、CNNからトランスフォーマーアーキテクチャへの広範なニューラルネットワーク設計を目撃している。
本研究は,市販のネットワーク設計を生かし,基礎となる計算オーバーヘッドを低減するため,超高解像度イテレーションにおけるネットワークプルーニングの可能性について検討する。
本研究では, ランダムネットワークのスパース構造を最適化し, 重要でない重みを小さめに微調整することにより, 反復型軟収縮率(ISS-P)法を提案する。
論文 参考訳(メタデータ) (2023-03-16T21:06:13Z) - DeepSaDe: Learning Neural Networks that Guarantee Domain Constraint
Satisfaction [8.29487992932196]
本稿では,ニューラルネットワークを訓練し,様々な制約を課し,その制約が全ての可能な予測によって満たされることを保証するアプローチを提案する。
私たちのアプローチは、さまざまなドメイン制約を強制するのに十分な柔軟性があり、ニューラルネットワークでそれらを保証できます。
論文 参考訳(メタデータ) (2023-03-02T10:40:50Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - Rapid Structural Pruning of Neural Networks with Set-based Task-Adaptive
Meta-Pruning [83.59005356327103]
既存のプルーニング技術に共通する制限は、プルーニングの前に少なくとも1回はネットワークの事前トレーニングが必要であることである。
本稿では,ターゲットデータセットの関数としてプルーニングマスクを生成することにより,大規模な参照データセット上で事前訓練されたネットワークをタスク適応的にプルークするSTAMPを提案する。
ベンチマークデータセット上での最近の先進的なプルーニング手法に対するSTAMPの有効性を検証する。
論文 参考訳(メタデータ) (2020-06-22T10:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。