論文の概要: Neural Network Virtual Sensors for Fuel Injection Quantities with
Provable Performance Specifications
- arxiv url: http://arxiv.org/abs/2007.00147v1
- Date: Tue, 30 Jun 2020 23:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:03:39.580272
- Title: Neural Network Virtual Sensors for Fuel Injection Quantities with
Provable Performance Specifications
- Title(参考訳): 性能保証可能な燃料噴射量のためのニューラルネットワーク仮想センサ
- Authors: Eric Wong, Tim Schneider, Joerg Schmitt, Frank R. Schmidt, J. Zico
Kolter
- Abstract要約: 証明可能な保証が、他の現実世界の設定にどのように自然に適用できるかを示す。
本研究では, 燃料噴射量を一定範囲で最大化するために, 特定の間隔の燃料噴射量を目標にする方法を示す。
- 参考スコア(独自算出の注目度): 71.1911136637719
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent work has shown that it is possible to learn neural networks with
provable guarantees on the output of the model when subject to input
perturbations, however these works have focused primarily on defending against
adversarial examples for image classifiers. In this paper, we study how these
provable guarantees can be naturally applied to other real world settings,
namely getting performance specifications for robust virtual sensors measuring
fuel injection quantities within an engine. We first demonstrate that, in this
setting, even simple neural network models are highly susceptible to reasonable
levels of adversarial sensor noise, which are capable of increasing the mean
relative error of a standard neural network from 6.6% to 43.8%. We then
leverage methods for learning provably robust networks and verifying robustness
properties, resulting in a robust model which we can provably guarantee has at
most 16.5% mean relative error under any sensor noise. Additionally, we show
how specific intervals of fuel injection quantities can be targeted to maximize
robustness for certain ranges, allowing us to train a virtual sensor for fuel
injection which is provably guaranteed to have at most 10.69% relative error
under noise while maintaining 3% relative error on non-adversarial data within
normalized fuel injection ranges of 0.6 to 1.0.
- Abstract(参考訳): 近年の研究では、入力摂動の対象となるモデルの出力を証明可能な保証でニューラルネットワークを学習できることが示されているが、これらの研究は主に画像分類器の敵対的例に対する防御に焦点を当てている。
本稿では, エンジン内燃料噴射量を測定するロバストな仮想センサの性能仕様の取得など, 実現可能な保証を他の実環境に適用する方法について検討する。
この環境では、単純なニューラルネットワークモデルでさえ、標準的なニューラルネットワークの平均相対誤差を6.6%から43.8%に増やすことができる、合理的なレベルの逆センサーノイズに非常に敏感であることを示す。
次に,頑健なネットワークを学習し,頑健性を検証する手法を活用し,センサノイズ下で16.5%の相対誤差を保証できるロバストモデルを構築した。
さらに,一定の範囲でのロバスト性を最大化するために,燃料噴射量の特定の間隔を目標にする方法を示し,正常化された燃料噴射範囲内の非敵データに対する3%の相対誤差を0.6~1.0で維持しながら,騒音下で10.69%の相対誤差を保証できる燃料噴射用仮想センサの訓練を可能にした。
関連論文リスト
- FDINet: Protecting against DNN Model Extraction via Feature Distortion Index [25.69643512837956]
FDINETは、ディープニューラルネットワーク(DNN)モデルの特徴分布を活用する新しい防御メカニズムである。
FDI類似性を利用して、分散抽出攻撃から衝突する敵を識別する。
FDINETは、91%を超える精度で衝突する敵を識別する能力を示している。
論文 参考訳(メタデータ) (2023-06-20T07:14:37Z) - Combining Gradients and Probabilities for Heterogeneous Approximation of
Neural Networks [2.5744053804694893]
近似乗算器の挙動シミュレーションのための代理モデルとして,加法的ガウス雑音の有効性について検討する。
バックプロパゲーションを用いたネットワークトレーニングにおいて、正確な計算に注入されるノイズの量について学習する。
実験により,不均一近似とニューラルネットワーク再学習の組み合わせは,変種に対するエネルギー消費を減少させることが示された。
論文 参考訳(メタデータ) (2022-08-15T15:17:34Z) - (Certified!!) Adversarial Robustness for Free! [116.6052628829344]
逆方向の摂動が0.5の2ノルム以内であることに制約された場合,ImageNetでは71%の精度が証明された。
これらの結果は,モデルパラメータの微調整や再学習を必要とせず,事前学習した拡散モデルと画像分類器のみを用いて得られる。
論文 参考訳(メタデータ) (2022-06-21T17:27:27Z) - Can pruning improve certified robustness of neural networks? [106.03070538582222]
ニューラルネット・プルーニングはディープ・ニューラル・ネットワーク(NN)の実証的ロバスト性を向上させることができることを示す。
実験の結果,NNを適切に刈り取ることで,その精度を8.2%まで向上させることができることがわかった。
さらに,認証された宝くじの存在が,従来の密集モデルの標準および認証された堅牢な精度に一致することを観察する。
論文 参考訳(メタデータ) (2022-06-15T05:48:51Z) - Toward Compact Deep Neural Networks via Energy-Aware Pruning [2.578242050187029]
ネットワークにおける各フィルタの重要性を核ノルム(NN)を用いて定量化する新しいエネルギー対応プルーニング手法を提案する。
FLOPの40.4/49.8%、パラメータ還元の45.9/52.9%、トップ1の精度の94.13/94.61%、CIFAR-10のResNet-56/110で競合する結果を得た。
論文 参考訳(メタデータ) (2021-03-19T15:33:16Z) - Real-time detection of uncalibrated sensors using Neural Networks [62.997667081978825]
オンライン学習に基づく温度・湿度・圧力センサの非校正検出装置を開発した。
このソリューションはニューラルネットワークをメインコンポーネントとして統合し、校正条件下でのセンサーの動作から学習する。
その結果, 提案手法は, 偏差値0.25度, 1% RH, 1.5Paの偏差をそれぞれ検出できることがわかった。
論文 参考訳(メタデータ) (2021-02-02T15:44:39Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Uncertainty-Aware Deep Calibrated Salient Object Detection [74.58153220370527]
既存のディープニューラルネットワークに基づくサルエントオブジェクト検出(SOD)手法は主に高いネットワーク精度の追求に重点を置いている。
これらの手法は、信頼不均衡問題として知られるネットワーク精度と予測信頼の間のギャップを見落としている。
我々は,不確実性を考慮した深部SODネットワークを導入し,深部SODネットワークの過信を防止するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2020-12-10T23:28:36Z) - SNIFF: Reverse Engineering of Neural Networks with Fault Attacks [26.542434084399265]
障害攻撃を利用したニューラルネットワークのリバースエンジニアリングの可能性を探る。
SNIFFは符号ビットフリップフォールトを意味し、中間値の符号を変更することでリバースエンジニアリングを可能にする。
モデルパラメータの復元を確実に行うディープ層特徴抽出器ネットワーク上での最初の正確な抽出法を開発した。
論文 参考訳(メタデータ) (2020-02-23T05:39:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。