論文の概要: Enforcing Hard Linear Constraints in Deep Learning Models with Decision Rules
- arxiv url: http://arxiv.org/abs/2505.13858v1
- Date: Tue, 20 May 2025 03:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.645782
- Title: Enforcing Hard Linear Constraints in Deep Learning Models with Decision Rules
- Title(参考訳): 決定規則付きディープラーニングモデルにおけるハードリニア制約の強制
- Authors: Gonzalo E. Constante-Flores, Hao Chen, Can Li,
- Abstract要約: 本稿では、入力依存線形等式とニューラルネットワーク出力の不等式制約を強制するモデルに依存しないフレームワークを提案する。
このアーキテクチャは、予測精度のために訓練されたタスクネットワークと、実行時の決定ルールと堅牢な最適化を用いてトレーニングされた安全なネットワークを組み合わせることで、入力空間全体の実現可能性を保証する。
- 参考スコア(独自算出の注目度): 8.098452803458253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are increasingly deployed in safety-critical tasks where predictions must satisfy hard constraints, such as physical laws, fairness requirements, or safety limits. However, standard architectures lack built-in mechanisms to enforce such constraints, and existing approaches based on regularization or projection are often limited to simple constraints, computationally expensive, or lack feasibility guarantees. This paper proposes a model-agnostic framework for enforcing input-dependent linear equality and inequality constraints on neural network outputs. The architecture combines a task network trained for prediction accuracy with a safe network trained using decision rules from the stochastic and robust optimization literature to ensure feasibility across the entire input space. The final prediction is a convex combination of the two subnetworks, guaranteeing constraint satisfaction during both training and inference without iterative procedures or runtime optimization. We prove that the architecture is a universal approximator of constrained functions and derive computationally tractable formulations based on linear decision rules. Empirical results on benchmark regression tasks show that our method consistently satisfies constraints while maintaining competitive accuracy and low inference latency.
- Abstract(参考訳): 深層学習モデルは、物理法則、公正性要件、安全限界などの厳しい制約を満たす必要がある、安全クリティカルなタスクにますますデプロイされている。
しかし、標準アーキテクチャにはそのような制約を強制する機構が組み込まれておらず、正規化や投影に基づく既存のアプローチは、単純な制約や計算コスト、実現可能性保証の欠如に制限されることが多い。
本稿では、入力依存線形等式とニューラルネットワーク出力の不等式制約を強制するモデルに依存しないフレームワークを提案する。
このアーキテクチャは、予測精度のために訓練されたタスクネットワークと、確率的かつ堅牢な最適化文献から決定ルールを用いてトレーニングされた安全なネットワークを組み合わせて、入力空間全体の実現可能性を保証する。
最終的な予測は、2つのサブネットワークの凸結合であり、反復的な手順や実行時の最適化なしに、トレーニングと推論の間の制約満足度を保証する。
このアーキテクチャは制約付き関数の普遍近似であり、線形決定規則に基づいて計算的に抽出可能な定式化を導出することを証明する。
ベンチマーク回帰タスクにおける実験結果から,提案手法は競合精度と低推論遅延を維持しつつ,常に制約を満たすことが示された。
関連論文リスト
- Constrained Online Decision-Making: A Unified Framework [14.465944215100746]
本稿では,段階的実現可能性制約による逐次意思決定の一般的な定式化について検討する。
本稿では,既存の制約付き学習問題を抽出する統一的なアルゴリズムフレームワークを提案する。
この結果は、理論と実践の両方において、制約付きシーケンシャルな意思決定のための原則化された基盤を提供する。
論文 参考訳(メタデータ) (2025-05-11T19:22:04Z) - ENFORCE: Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
本稿では,適応プロジェクションモジュール(AdaNP)を用いたニューラルネットワークアーキテクチャであるENFORCEを紹介した。
プロジェクションマッピングが1-Lipschitzであることが証明され、安定したトレーニングに適している。
我々の新しいアーキテクチャの予測は、ニューラルネットワークの入力と出力の両方において非線形である$N_C$等式制約を満たす。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - Hard-Constrained Neural Networks with Universal Approximation Guarantees [6.03124479597323]
HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
我々は,HardNetを,断片的制約による学習,最適化解法の学習,安全クリティカルシステムにおける制御ポリシの最適化,航空機システムに対する安全な決定ロジックの学習など,さまざまなアプリケーションで実証する。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。