論文の概要: ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection
- arxiv url: http://arxiv.org/abs/2502.06774v2
- Date: Tue, 11 Feb 2025 18:54:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:07:12.369838
- Title: ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection
- Title(参考訳): ENFORCE:Adaptive-Depth Neural Projectionを用いた非線形制約学習
- Authors: Giacomo Lastrucci, Artur M. Schweidtmann,
- Abstract要約: ENFORCEは、非線形制約を正確に満たす予測を保証するニューラルネットワークアーキテクチャである。
適応深度ニューラルプロジェクションモジュールを構築し、その複雑さを動的に調整し、特定の問題と必要な許容レベルに適合させる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Ensuring neural networks adhere to domain-specific constraints is crucial for addressing safety and ethical concerns while also enhancing prediction accuracy. Despite the nonlinear nature of most real-world tasks, existing methods are predominantly limited to affine or convex constraints. We introduce ENFORCE, a neural network architecture that guarantees predictions to satisfy nonlinear constraints exactly. ENFORCE is trained with standard unconstrained gradient-based optimizers (e.g., Adam) and leverages autodifferentiation and local neural projections to enforce any $\mathcal{C}^1$ constraint to arbitrary tolerance $\epsilon$. We build an adaptive-depth neural projection (AdaNP) module that dynamically adjusts its complexity to suit the specific problem and the required tolerance levels. ENFORCE guarantees satisfaction of equality constraints that are nonlinear in both inputs and outputs of the neural network with minimal (and adjustable) computational cost.
- Abstract(参考訳): ニューラルネットワークがドメイン固有の制約に準拠することを保証することは、安全性と倫理上の懸念に対処するとともに、予測精度の向上にも不可欠である。
ほとんどの実世界のタスクの非線形性にもかかわらず、既存の手法は主にアフィンや凸の制約に制限されている。
本稿では,非線形制約を正確に満たす予測を保証するニューラルネットワークアーキテクチャENFORCEを紹介する。
ENFORCEは標準の非制約勾配ベースのオプティマイザ(例えばAdam)でトレーニングされ、自動微分と局所神経投射を利用して任意の許容値に対して$\mathcal{C}^1$の制約を課す。
適応深度ニューラルプロジェクション(AdaNP)モジュールを構築し、その複雑性を動的に調整し、特定の問題と必要な許容レベルに適合させる。
ENFORCEは、最小(かつ調整可能な)計算コストでニューラルネットワークの入力と出力の両方で非線形な等式制約の満足度を保証する。
関連論文リスト
- Hard-Constrained Neural Networks with Universal Approximation Guarantees [5.3663546125491735]
HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - N-Adaptive Ritz Method: A Neural Network Enriched Partition of Unity for
Boundary Value Problems [1.2200609701777907]
本研究は,ニューラルネットワークによる境界値問題を解決するために,ニューラルネットワークに富んだユニティ分割(NN-PU)アプローチを導入する。
NNエンリッチメントは、事前訓練された特徴符号化NNブロックと未訓練NNブロックを組み合わせることで構成される。
提案手法は,従来のメッシュ法に比べて計算コストを低減しつつ,正確な解を提供する。
論文 参考訳(メタデータ) (2024-01-16T18:11:14Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - The Boundaries of Verifiable Accuracy, Robustness, and Generalisation in Deep Learning [71.14237199051276]
経験的リスクを最小限に抑えるため,古典的な分布に依存しないフレームワークとアルゴリズムを検討する。
理想的な安定かつ正確なニューラルネットワークの計算と検証が極めて難しいタスク群が存在することを示す。
論文 参考訳(メタデータ) (2023-09-13T16:33:27Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - DeepSaDe: Learning Neural Networks that Guarantee Domain Constraint
Satisfaction [8.29487992932196]
本稿では,ニューラルネットワークを訓練し,様々な制約を課し,その制約が全ての可能な予測によって満たされることを保証するアプローチを提案する。
私たちのアプローチは、さまざまなドメイン制約を強制するのに十分な柔軟性があり、ニューラルネットワークでそれらを保証できます。
論文 参考訳(メタデータ) (2023-03-02T10:40:50Z) - Linearity Grafting: Relaxed Neuron Pruning Helps Certifiable Robustness [172.61581010141978]
証明可能な堅牢性は、安全クリティカルなシナリオでディープニューラルネットワーク(DNN)を採用する上で望ましい特性である。
線形性の適切なレベルを「グラフト」することで、神経細胞を戦略的に操作する新しいソリューションを提案する。
論文 参考訳(メタデータ) (2022-06-15T22:42:29Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。