論文の概要: Enforcing Hard Linear Constraints in Deep Learning Models with Decision Rules
- arxiv url: http://arxiv.org/abs/2505.13858v1
- Date: Tue, 20 May 2025 03:09:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-21 14:49:52.645782
- Title: Enforcing Hard Linear Constraints in Deep Learning Models with Decision Rules
- Title(参考訳): 決定規則付きディープラーニングモデルにおけるハードリニア制約の強制
- Authors: Gonzalo E. Constante-Flores, Hao Chen, Can Li,
- Abstract要約: 本稿では、入力依存線形等式とニューラルネットワーク出力の不等式制約を強制するモデルに依存しないフレームワークを提案する。
このアーキテクチャは、予測精度のために訓練されたタスクネットワークと、実行時の決定ルールと堅牢な最適化を用いてトレーニングされた安全なネットワークを組み合わせることで、入力空間全体の実現可能性を保証する。
- 参考スコア(独自算出の注目度): 8.098452803458253
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning models are increasingly deployed in safety-critical tasks where predictions must satisfy hard constraints, such as physical laws, fairness requirements, or safety limits. However, standard architectures lack built-in mechanisms to enforce such constraints, and existing approaches based on regularization or projection are often limited to simple constraints, computationally expensive, or lack feasibility guarantees. This paper proposes a model-agnostic framework for enforcing input-dependent linear equality and inequality constraints on neural network outputs. The architecture combines a task network trained for prediction accuracy with a safe network trained using decision rules from the stochastic and robust optimization literature to ensure feasibility across the entire input space. The final prediction is a convex combination of the two subnetworks, guaranteeing constraint satisfaction during both training and inference without iterative procedures or runtime optimization. We prove that the architecture is a universal approximator of constrained functions and derive computationally tractable formulations based on linear decision rules. Empirical results on benchmark regression tasks show that our method consistently satisfies constraints while maintaining competitive accuracy and low inference latency.
- Abstract(参考訳): 深層学習モデルは、物理法則、公正性要件、安全限界などの厳しい制約を満たす必要がある、安全クリティカルなタスクにますますデプロイされている。
しかし、標準アーキテクチャにはそのような制約を強制する機構が組み込まれておらず、正規化や投影に基づく既存のアプローチは、単純な制約や計算コスト、実現可能性保証の欠如に制限されることが多い。
本稿では、入力依存線形等式とニューラルネットワーク出力の不等式制約を強制するモデルに依存しないフレームワークを提案する。
このアーキテクチャは、予測精度のために訓練されたタスクネットワークと、確率的かつ堅牢な最適化文献から決定ルールを用いてトレーニングされた安全なネットワークを組み合わせて、入力空間全体の実現可能性を保証する。
最終的な予測は、2つのサブネットワークの凸結合であり、反復的な手順や実行時の最適化なしに、トレーニングと推論の間の制約満足度を保証する。
このアーキテクチャは制約付き関数の普遍近似であり、線形決定規則に基づいて計算的に抽出可能な定式化を導出することを証明する。
ベンチマーク回帰タスクにおける実験結果から,提案手法は競合精度と低推論遅延を維持しつつ,常に制約を満たすことが示された。
関連論文リスト
- End-to-End Probabilistic Framework for Learning with Hard Constraints [47.10876360975842]
ProbHardE2Eは、運用上の制約をハード要件として組み込むことのできるシステムを学ぶ。
分散情報を新しい方法で活用することで、厳しい制約を課す。
一連の非線形制約(モデリングと柔軟性のパワーを高める)を組み込むことができます。
論文 参考訳(メタデータ) (2025-06-08T05:29:50Z) - Conformal Mixed-Integer Constraint Learning with Feasibility Guarantees [0.3058340744328236]
Conformal Mixed-Integer Constraint Learningは、最適化問題におけるデータ駆動制約の確率論的実現可能性を保証する。
我々は,C-MICLが目標レートを一貫して達成し,競争目標性能を維持し,既存の手法に比べて計算コストを大幅に削減することを示す。
論文 参考訳(メタデータ) (2025-06-04T03:26:31Z) - Constrained Online Decision-Making: A Unified Framework [14.465944215100746]
本稿では,段階的実現可能性制約による逐次意思決定の一般的な定式化について検討する。
本稿では,既存の制約付き学習問題を抽出する統一的なアルゴリズムフレームワークを提案する。
この結果は、理論と実践の両方において、制約付きシーケンシャルな意思決定のための原則化された基盤を提供する。
論文 参考訳(メタデータ) (2025-05-11T19:22:04Z) - ENFORCE: Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
本稿では,適応プロジェクションモジュール(AdaNP)を用いたニューラルネットワークアーキテクチャであるENFORCEを紹介した。
プロジェクションマッピングが1-Lipschitzであることが証明され、安定したトレーニングに適している。
我々の新しいアーキテクチャの予測は、ニューラルネットワークの入力と出力の両方において非線形である$N_C$等式制約を満たす。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - Hard-Constrained Neural Networks with Universal Approximation Guarantees [6.03124479597323]
HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
我々は,HardNetを,断片的制約による学習,最適化解法の学習,安全クリティカルシステムにおける制御ポリシの最適化,航空機システムに対する安全な決定ロジックの学習など,さまざまなアプリケーションで実証する。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - Robust Stochastically-Descending Unrolled Networks [85.6993263983062]
Deep Unrolling(ディープ・アンローリング)は、トレーニング可能なニューラルネットワークの層に切り捨てられた反復アルゴリズムをアンロールする、新たな学習最適化手法である。
アンロールネットワークの収束保証と一般化性は、いまだにオープンな理論上の問題であることを示す。
提案した制約の下で訓練されたアンロールアーキテクチャを2つの異なるアプリケーションで数値的に評価する。
論文 参考訳(メタデータ) (2023-12-25T18:51:23Z) - On Regularization and Inference with Label Constraints [62.60903248392479]
機械学習パイプラインにおけるラベル制約を符号化するための2つの戦略、制約付き正規化、制約付き推論を比較した。
正規化については、制約に不整合なモデルを前置することで一般化ギャップを狭めることを示す。
制約付き推論では、モデルの違反を訂正することで人口リスクを低減し、それによってその違反を有利にすることを示す。
論文 参考訳(メタデータ) (2023-07-08T03:39:22Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Resilient Constrained Learning [94.27081585149836]
本稿では,学習課題を同時に解決しながら,要求に適応する制約付き学習手法を提案する。
我々はこの手法を、その操作を変更することで破壊に適応する生態システムを記述する用語に因んで、レジリエントな制約付き学習と呼ぶ。
論文 参考訳(メタデータ) (2023-06-04T18:14:18Z) - When Demonstrations Meet Generative World Models: A Maximum Likelihood
Framework for Offline Inverse Reinforcement Learning [62.00672284480755]
本稿では, 専門家エージェントから, 一定の有限個の実演において観測された動作を過小評価する報酬と環境力学の構造を復元することを目的とする。
タスクを実行するための正確な専門知識モデルは、臨床的意思決定や自律運転のような安全に敏感な応用に応用できる。
論文 参考訳(メタデータ) (2023-02-15T04:14:20Z) - Constrained Model-Free Reinforcement Learning for Process Optimization [0.0]
強化学習(Reinforcement Learning, RL)は、非線形最適制御問題を扱うための制御手法である。
展示された約束にもかかわらず、RLは産業的な実践への顕著な翻訳をまだ見ていない。
確率の高い共同確率制約の満足度を保証できる「オークル」支援型制約付きQ-ラーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-16T13:16:22Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。