論文の概要: Sample-Specific Output Constraints for Neural Networks
- arxiv url: http://arxiv.org/abs/2003.10258v1
- Date: Mon, 23 Mar 2020 13:13:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 00:27:04.811535
- Title: Sample-Specific Output Constraints for Neural Networks
- Title(参考訳): ニューラルネットワークのためのサンプル特異出力制約
- Authors: Mathis Brosowsky (1 and 2), Olaf D\"unkel (1), Daniel Slieter (1),
Marius Z\"ollner (2) ((1) Dr. Ing. h.c. F. Porsche AG, (2) FZI Research
Center for Information Technology)
- Abstract要約: ConstraintNetは、追加入力を介して各フォワードパスの出力スペースを制限できるニューラルネットワークである。
我々は凸ポリトープの形で制約に焦点を合わせ、さらなる制約のクラスへの一般化を示す。
安全クリティカルなアプリケーションとして,車両用追従オブジェクトコントローラへの応用を実演する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks reach state-of-the-art performance in a variety of learning
tasks. However, a lack of understanding the decision making process yields to
an appearance as black box. We address this and propose ConstraintNet, a neural
network with the capability to constrain the output space in each forward pass
via an additional input. The prediction of ConstraintNet is proven within the
specified domain. This enables ConstraintNet to exclude unintended or even
hazardous outputs explicitly whereas the final prediction is still learned from
data. We focus on constraints in form of convex polytopes and show the
generalization to further classes of constraints. ConstraintNet can be
constructed easily by modifying existing neural network architectures. We
highlight that ConstraintNet is end-to-end trainable with no overhead in the
forward and backward pass. For illustration purposes, we model ConstraintNet by
modifying a CNN and construct constraints for facial landmark prediction tasks.
Furthermore, we demonstrate the application to a follow object controller for
vehicles as a safety-critical application. We submitted an approach and system
for the generation of safety-critical outputs of an entity based on
ConstraintNet at the German Patent and Trademark Office with the official
registration mark DE10 2019 119 739.
- Abstract(参考訳): ニューラルネットワークは、さまざまな学習タスクで最先端のパフォーマンスに達する。
しかし、意思決定プロセスの理解の欠如は、ブラックボックスとして現れることになる。
そこで本研究では,各フォワードパスの出力空間を付加入力で制約する機能を持つニューラルネットワークであるconsttionnetを提案する。
ConstraintNetの予測は、指定されたドメイン内で証明されている。
これによりConstraintNetは意図しないあるいは危険な出力を明示的に排除できるが、最終的な予測はまだデータから学習されている。
我々は,凸ポリトープの形式での制約に着目し,制約のさらなるクラスへの一般化を示す。
ConstraintNetは、既存のニューラルネットワークアーキテクチャを変更することで簡単に構築できる。
ConstraintNetは、前と後ろのパスにオーバーヘッドがなく、エンドツーエンドのトレーニングが可能であることを強調します。
図示目的のために、私たちはCNNを変更してConstraintNetをモデル化し、顔のランドマーク予測タスクの制約を構築します。
さらに,安全クリティカルなアプリケーションとして,車両用追従オブジェクトコントローラへの適用例を示す。
我々は,ドイツの特許商標庁において,制約ネットに基づくエンティティの安全クリティカルな出力生成のためのアプローチとシステムを提出し,公式登録マーク de10 2019 119 739 を提出した。
関連論文リスト
- Hard-Constrained Neural Networks with Universal Approximation Guarantees [5.3663546125491735]
HardNetは、モデルキャパシティを犠牲にすることなく、本質的に厳しい制約を満たすニューラルネットワークを構築するためのフレームワークである。
ニューラルネットワークの普遍近似能力はHardNetが保持していることを示す。
論文 参考訳(メタデータ) (2024-10-14T17:59:24Z) - A New Computationally Simple Approach for Implementing Neural Networks
with Output Hard Constraints [5.482532589225552]
ニューラルネットワークの出力値に厳密な凸制約を課す新しい手法を提案する。
マッピングは、出力の制約のある追加のニューラルネットワーク層によって実装される。
提案手法は,出力ベクトルだけでなく,入力による共同制約にも制約が課される場合に,単純に拡張される。
論文 参考訳(メタデータ) (2023-07-19T21:06:43Z) - Neural Fields with Hard Constraints of Arbitrary Differential Order [61.49418682745144]
我々は、ニューラルネットワークに厳しい制約を課すための一連のアプローチを開発する。
制約は、ニューラルネットワークとそのデリバティブに適用される線形作用素として指定することができる。
私たちのアプローチは、広範囲の現実世界のアプリケーションで実証されています。
論文 参考訳(メタデータ) (2023-06-15T08:33:52Z) - DeepSaDe: Learning Neural Networks that Guarantee Domain Constraint
Satisfaction [8.29487992932196]
本稿では,ニューラルネットワークを訓練し,様々な制約を課し,その制約が全ての可能な予測によって満たされることを保証するアプローチを提案する。
私たちのアプローチは、さまざまなドメイン制約を強制するのに十分な柔軟性があり、ニューラルネットワークでそれらを保証できます。
論文 参考訳(メタデータ) (2023-03-02T10:40:50Z) - Constrained Empirical Risk Minimization: Theory and Practice [2.4934936799100034]
本稿では,Deep Neural Networks (DNN) などのパラメータ化された関数集合に対する制約の厳格化を可能にするフレームワークを提案する。
我々は、幾何学的深層学習で使用される同変ネットワークの範囲外にある制約に焦点を当てる。
このフレームワークの主な例として、畳み込みニューラルネットワーク(CNN)のフィルタをウェーブレットに制限し、これらのウェーブレットネットワークを医療領域における輪郭予測のタスクに適用する。
論文 参考訳(メタデータ) (2023-02-09T16:11:58Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - NeuroLogic A*esque Decoding: Constrained Text Generation with Lookahead
Heuristics [73.96837492216204]
本稿では,将来のコスト見積を組み込んだ復号アルゴリズムであるNeuroLogic A*esqueを提案する。
大規模言語モデルに効率的な効率的なルックアヘッドを開発する。
提案手法は,5世代タスクにおける競合的ベースラインと,テーブル・トゥ・テキスト生成,制約された機械翻訳,キーワード制約付き生成における最先端性能を実現する。
論文 参考訳(メタデータ) (2021-12-16T09:22:54Z) - Constrained Feedforward Neural Network Training via Reachability
Analysis [0.0]
安全上の制約に従うためにニューラルネットワークをトレーニングすることは、依然としてオープンな課題である。
本研究は, 整列線形単位(ReLU)非線形性を持つフィードフォワードニューラルネットワークを同時に訓練し, 検証する制約付き手法を提案する。
論文 参考訳(メタデータ) (2021-07-16T04:03:01Z) - Certification of Iterative Predictions in Bayesian Neural Networks [79.15007746660211]
我々は、BNNモデルの軌道が与えられた状態に到達する確率に対して、安全でない状態の集合を避けながら低い境界を計算する。
我々は、制御と強化学習の文脈において、下限を用いて、与えられた制御ポリシーの安全性保証を提供する。
論文 参考訳(メタデータ) (2021-05-21T05:23:57Z) - Chance-Constrained Control with Lexicographic Deep Reinforcement
Learning [77.34726150561087]
本稿では,レキシックなDeep Reinforcement Learning(DeepRL)に基づく確率制約マルコフ決定プロセスを提案する。
有名なDeepRLアルゴリズムDQNの辞書版も提案され、シミュレーションによって検証されている。
論文 参考訳(メタデータ) (2020-10-19T13:09:14Z) - An Integer Linear Programming Framework for Mining Constraints from Data [81.60135973848125]
データから制約をマイニングするための一般的なフレームワークを提案する。
特に、構造化された出力予測の推論を整数線形プログラミング(ILP)問題とみなす。
提案手法は,9×9のスドクパズルの解法を学習し,基礎となるルールを提供することなく,例からツリー問題を最小限に分散させることが可能であることを示す。
論文 参考訳(メタデータ) (2020-06-18T20:09:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。