論文の概要: Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision
- arxiv url: http://arxiv.org/abs/2108.07019v1
- Date: Mon, 16 Aug 2021 11:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 20:29:46.905409
- Title: Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision
- Title(参考訳): アクティベーション・レンジ・スーパービジョンを用いた畳み込みニューラルネットワークにおけるハードウェアフォールトトレランスの安全事例に向けて
- Authors: Florian Geissler, Syed Qutub, Sayanta Roychowdhury, Ali Asgari, Yang
Peng, Akash Dhamasia, Ralf Graefe, Karthik Pattabiraman, and Michael
Paulitsch
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
- 参考スコア(独自算出の注目度): 1.7968112116887602
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional neural networks (CNNs) have become an established part of
numerous safety-critical computer vision applications, including human robot
interactions and automated driving. Real-world implementations will need to
guarantee their robustness against hardware soft errors corrupting the
underlying platform memory. Based on the previously observed efficacy of
activation clipping techniques, we build a prototypical safety case for
classifier CNNs by demonstrating that range supervision represents a highly
reliable fault detector and mitigator with respect to relevant bit flips,
adopting an eight-exponent floating point data representation. We further
explore novel, non-uniform range restriction methods that effectively suppress
the probability of silent data corruptions and uncorrectable errors. As a
safety-relevant end-to-end use case, we showcase the benefit of our approach in
a vehicle classification scenario, using ResNet-50 and the traffic camera data
set MIOVision. The quantitative evidence provided in this work can be leveraged
to inspire further and possibly more complex CNN safety arguments.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、人間のロボットインタラクションや自動運転を含む、多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
実際の実装では、基盤となるプラットフォームメモリを損なうハードウェアソフトエラーに対する堅牢性を保証する必要がある。
従来観測されていたアクティベーションクリッピング技術の有効性に基づいて,レンジ監視がビットフリップに関する信頼性の高い障害検出器と緩和器を表現し,8つの浮動小数点データ表現を採用することを示し,分類器CNNのプロトタイプ安全ケースを構築した。
我々はさらに,サイレントデータの破損と誤りの可能性を効果的に抑制する,新しい非一様範囲制限法について検討する。
安全関連エンド・ツー・エンドのユースケースとして,ResNet-50と交通カメラデータセットMIOVisionを用いて,車両分類シナリオにおけるアプローチのメリットを示す。
この研究で得られた量的証拠は、さらに複雑なCNNの安全性論を刺激するために活用することができる。
関連論文リスト
- Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - Partially Oblivious Neural Network Inference [4.843820624525483]
CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-27T05:39:36Z) - Self-Supervised Masked Convolutional Transformer Block for Anomaly
Detection [122.4894940892536]
本稿では, 自己監督型マスク型畳み込み変圧器ブロック (SSMCTB) について述べる。
本研究では,従来の自己教師型予測畳み込み抑止ブロック(SSPCAB)を3次元マスク付き畳み込み層,チャンネルワイドアテンション用トランスフォーマー,およびハマーロスに基づく新たな自己教師型目標を用いて拡張する。
論文 参考訳(メタデータ) (2022-09-25T04:56:10Z) - SAFE-OCC: A Novelty Detection Framework for Convolutional Neural Network
Sensors and its Application in Process Control [0.0]
本稿では,センサアクティベート特徴抽出ワンクラス分類(SAFE-OCC)と呼ばれる,畳み込みニューラルネットワーク(CNN)センサの新規検出フレームワークを提案する。
このフレームワークは,プロセス制御アーキテクチャにおけるコンピュータビジョンセンサの安全な利用を可能にする。
論文 参考訳(メタデータ) (2022-02-03T19:47:55Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Towards Adversarial-Resilient Deep Neural Networks for False Data
Injection Attack Detection in Power Grids [7.351477761427584]
偽データインジェクション攻撃(FDIA)は、電力システムの状態推定に重大なセキュリティ上の脅威をもたらす。
最近の研究では、機械学習(ML)技術、特にディープニューラルネットワーク(DNN)が提案されている。
論文 参考訳(メタデータ) (2021-02-17T22:26:34Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。