論文の概要: Hard-Constrained Neural Networks with Universal Approximation Guarantees
- arxiv url: http://arxiv.org/abs/2410.10807v2
- Date: Mon, 05 May 2025 17:58:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-06 18:49:35.046284
- Title: Hard-Constrained Neural Networks with Universal Approximation Guarantees
- Title(参考訳): ユニバーサル近似保証付きハードコントラストニューラルネットワーク
- Authors: Youngjae Min, Navid Azizan,
- Abstract要約: HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
我々は,HardNetを,断片的制約による学習,最適化解法の学習,安全クリティカルシステムにおける制御ポリシの最適化,航空機システムに対する安全な決定ロジックの学習など,さまざまなアプリケーションで実証する。
- 参考スコア(独自算出の注目度): 6.03124479597323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Incorporating prior knowledge or specifications of input-output relationships into machine learning models has gained significant attention, as it enhances generalization from limited data and leads to conforming outputs. However, most existing approaches use soft constraints by penalizing violations through regularization, which offers no guarantee of constraint satisfaction--an essential requirement in safety-critical applications. On the other hand, imposing hard constraints on neural networks may hinder their representational power, adversely affecting performance. To address this, we propose HardNet, a practical framework for constructing neural networks that inherently satisfy hard constraints without sacrificing model capacity. Unlike approaches that modify outputs only at inference time, HardNet enables end-to-end training with hard constraint guarantees, leading to improved performance. To the best of our knowledge, HardNet is the first method with an efficient forward pass to enforce more than one input-dependent inequality constraint. It allows unconstrained optimization of the network parameters using standard algorithms by appending a differentiable closed-form enforcement layer to the network's output. Furthermore, we show that HardNet retains the universal approximation capabilities of neural networks. We demonstrate the versatility and effectiveness of HardNet across various applications: learning with piecewise constraints, learning optimization solvers, optimizing control policies in safety-critical systems, and learning safe decision logic for aircraft systems.
- Abstract(参考訳): 機械学習モデルにインプット・アウトプット関係の事前の知識や仕様を組み込むことは、限られたデータからの一般化を高め、出力の適合につながるため、大きな注目を集めている。
しかし、既存のほとんどのアプローチは、規則化によって違反を罰することでソフトな制約を使用する。
一方、ニューラルネットワークに厳しい制約を課すことは、表現力を妨げる可能性があり、性能に悪影響を及ぼす。
これを解決するために、モデル容量を犠牲にすることなく、本質的に制約を満たすニューラルネットワークを構築するための実践的なフレームワークであるHardNetを提案する。
推論時にのみ出力を変更するアプローチとは異なり、HardNetはハード制約の保証でエンドツーエンドのトレーニングを可能にし、パフォーマンスが向上する。
私たちの知る限りでは、HardNetは複数の入力依存の不等式制約を強制する効率的なフォワードパスを持つ最初の方法です。
これは、ネットワークの出力に微分可能なクローズドフォーム強制層を追加することで、標準アルゴリズムを使用して、ネットワークパラメータの制約のない最適化を可能にする。
さらに,HardNetはニューラルネットワークの普遍近似能力を保っていることを示す。
本稿では,一括制約による学習,最適化ソルバの学習,安全クリティカルシステムにおける制御ポリシの最適化,航空機システムに対する安全な決定ロジックの学習など,さまざまなアプリケーションにおけるHardNetの汎用性と有効性を示す。
関連論文リスト
- ENFORCE: Exact Nonlinear Constrained Learning with Adaptive-depth Neural Projection [0.0]
ENFORCEは、非線形制約を正確に満たす予測を保証するニューラルネットワークアーキテクチャである。
適応深度ニューラルプロジェクションモジュールを構築し、その複雑さを動的に調整し、特定の問題と必要な許容レベルに適合させる。
論文 参考訳(メタデータ) (2025-02-10T18:52:22Z) - Learning to Solve Combinatorial Optimization under Positive Linear Constraints via Non-Autoregressive Neural Networks [103.78912399195005]
組合せ最適化(英: Combinatorial Optimization、CO)は、計算機科学、応用数学などにおける基本的な問題である。
本稿では, 正線形制約下でのCO問題の解法として, 非自己回帰ニューラルネットワーク群を設計する。
本研究では,施設位置,最大被覆率,旅行セールスマン問題を含む代表的CO問題の解決において,この枠組みの有効性を検証する。
論文 参考訳(メタデータ) (2024-09-06T14:58:31Z) - Achieving Constraints in Neural Networks: A Stochastic Augmented
Lagrangian Approach [49.1574468325115]
DNN(Deep Neural Networks)の正規化は、一般化性の向上とオーバーフィッティングの防止に不可欠である。
制約付き最適化問題としてトレーニングプロセスのフレーミングによるDNN正規化に対する新しいアプローチを提案する。
我々はAugmented Lagrangian (SAL) 法を用いて、より柔軟で効率的な正規化機構を実現する。
論文 参考訳(メタデータ) (2023-10-25T13:55:35Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - Power Control with QoS Guarantees: A Differentiable Projection-based
Unsupervised Learning Framework [14.518558523319518]
NPハード無線リソース割り当て問題を解決する潜在的なソリューションとして、ディープニューラルネットワーク(DNN)が登場している。
マルチユーザチャネルにおける古典的電力制御問題を解決するために,教師なし学習フレームワークを提案する。
提案手法は,データレートを向上するだけでなく,既存の計算に比べて制約違反の確率をゼロにすることを示す。
論文 参考訳(メタデータ) (2023-05-31T14:11:51Z) - DeepSaDe: Learning Neural Networks that Guarantee Domain Constraint
Satisfaction [8.29487992932196]
本稿では,ニューラルネットワークを訓練し,様々な制約を課し,その制約が全ての可能な予測によって満たされることを保証するアプローチを提案する。
私たちのアプローチは、さまざまなドメイン制約を強制するのに十分な柔軟性があり、ニューラルネットワークでそれらを保証できます。
論文 参考訳(メタデータ) (2023-03-02T10:40:50Z) - Constrained Empirical Risk Minimization: Theory and Practice [2.4934936799100034]
本稿では,Deep Neural Networks (DNN) などのパラメータ化された関数集合に対する制約の厳格化を可能にするフレームワークを提案する。
我々は、幾何学的深層学習で使用される同変ネットワークの範囲外にある制約に焦点を当てる。
このフレームワークの主な例として、畳み込みニューラルネットワーク(CNN)のフィルタをウェーブレットに制限し、これらのウェーブレットネットワークを医療領域における輪郭予測のタスクに適用する。
論文 参考訳(メタデータ) (2023-02-09T16:11:58Z) - Unsupervised Optimal Power Flow Using Graph Neural Networks [172.33624307594158]
グラフニューラルネットワークを用いて、要求された電力と対応するアロケーションとの間の非線形パラメトリゼーションを学習する。
シミュレーションを通して、この教師なし学習コンテキストにおけるGNNの使用は、標準解法に匹敵するソリューションにつながることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:30:09Z) - Risk-Awareness in Learning Neural Controllers for Temporal Logic
Objectives [2.047329787828792]
閉ループ系が一定の制約を満たすような不確実性が存在する場合の制御器の問題を考える。
制御障壁関数(CBF)の枠組みを利用して,STL目的のCBFをアルゴリズム的に取得する。
クワッドロータや一輪車のような非線形制御のよく知られた難解な例に対して,本手法の有効性を実証する。
論文 参考訳(メタデータ) (2022-10-14T00:49:08Z) - Edge Rewiring Goes Neural: Boosting Network Resilience via Policy
Gradient [62.660451283548724]
ResiNetは、さまざまな災害や攻撃に対する回復力のあるネットワークトポロジを発見するための強化学習フレームワークである。
ResiNetは複数のグラフに対してほぼ最適のレジリエンス向上を実現し,ユーティリティのバランスを保ちながら,既存のアプローチに比べて大きなマージンを持つことを示す。
論文 参考訳(メタデータ) (2021-10-18T06:14:28Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。