論文の概要: PaRoT: A Practical Framework for Robust Deep Neural Network Training
- arxiv url: http://arxiv.org/abs/2001.02152v3
- Date: Wed, 25 Mar 2020 11:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-13 20:16:06.859305
- Title: PaRoT: A Practical Framework for Robust Deep Neural Network Training
- Title(参考訳): PaRoT:ロバストなディープニューラルネットワークトレーニングのための実践的フレームワーク
- Authors: Edward Ayers, Francisco Eiras, Majd Hawasly, Iain Whiteside
- Abstract要約: ディープニューラルネットワーク(DNN)は、自律走行車(AV)のような安全クリティカルなシステムに重要な応用を見出している
ブラックボックスの性質による保証のためのユニークな課題の増大により、DNNはこの種のシステムに対する規制の受け入れに根本的な問題を引き起こす。
我々は、人気のあるトレーニングプラットフォーム上で開発された新しいフレームワークPaRoTを導入し、参入障壁を大幅に減らした。
- 参考スコア(独自算出の注目度): 1.9034855801255839
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep Neural Networks (DNNs) are finding important applications in
safety-critical systems such as Autonomous Vehicles (AVs), where perceiving the
environment correctly and robustly is necessary for safe operation. Raising
unique challenges for assurance due to their black-box nature, DNNs pose a
fundamental problem for regulatory acceptance of these types of systems. Robust
training --- training to minimize excessive sensitivity to small changes in
input --- has emerged as one promising technique to address this challenge.
However, existing robust training tools are inconvenient to use or apply to
existing codebases and models: they typically only support a small subset of
model elements and require users to extensively rewrite the training code. In
this paper we introduce a novel framework, PaRoT, developed on the popular
TensorFlow platform, that greatly reduces the barrier to entry. Our framework
enables robust training to be performed on arbitrary DNNs without any rewrites
to the model. We demonstrate that our framework's performance is comparable to
prior art, and exemplify its ease of use on off-the-shelf, trained models and
its testing capabilities on a real-world industrial application: a traffic
light detection network.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、自律走行車(AV)のような安全クリティカルなシステムにおいて重要な応用を見出している。
ブラックボックスの性質による保証のためのユニークな課題の増大により、DNNはこの種のシステムに対する規制の受け入れに根本的な問題を引き起こす。
入力の小さな変更に対する過度な感受性を最小限に抑えるための、堅牢なトレーニング — が、この課題に対処する有望なテクニックとして登場した。
しかしながら、既存の堅牢なトレーニングツールは、既存のコードベースやモデルの使用や適用には不都合である。
本稿では,TensorFlowプラットフォーム上で開発された新しいフレームワークPaRoTを紹介する。
我々のフレームワークは、モデルを書き換えることなく、任意のDNN上で堅牢なトレーニングを実行できる。
当社のフレームワークのパフォーマンスは先行技術に匹敵するものであることを実証し、市販のトレーニング済みモデルでの使いやすさと実世界の産業アプリケーションにおけるテスト能力、すなわちトラフィック光検出ネットワークを実証した。
関連論文リスト
- Adversarial Robustification via Text-to-Image Diffusion Models [56.37291240867549]
アドリラルロバスト性は、ニューラルネットワークをエンコードする難しい性質として伝統的に信じられてきた。
データを使わずに敵の堅牢性を実現するために,スケーラブルでモデルに依存しないソリューションを開発した。
論文 参考訳(メタデータ) (2024-07-26T10:49:14Z) - Auto-Train-Once: Controller Network Guided Automatic Network Pruning from Scratch [72.26822499434446]
オートトレインオース (Auto-Train-Once, ATO) は、DNNの計算コストと記憶コストを自動的に削減するために設計された、革新的なネットワークプルーニングアルゴリズムである。
総合的な収束解析と広範な実験を行い,本手法が様々なモデルアーキテクチャにおける最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2024-03-21T02:33:37Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Interference Cancellation GAN Framework for Dynamic Channels [74.22393885274728]
チャネルのあらゆる変更に適応できるオンライントレーニングフレームワークを導入します。
我々のフレームワークは、非常にダイナミックなチャネル上での最近のニューラルネットワークモデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2022-08-17T02:01:18Z) - Provably Safe Model-Based Meta Reinforcement Learning: An
Abstraction-Based Approach [3.569867801312134]
本研究では,不確実な非線形力学系に対して,確実に安全なニューラルネットワーク(NN)コントローラをトレーニングする問題を考察する。
私たちのアプローチは、トレーニングフェーズ中にNNコントローラのセットを学ぶことです。
タスクが実行時に利用可能になると、我々のフレームワークはこれらのNNコントローラのサブセットを慎重に選択し、最終的なNNコントローラを構成する。
論文 参考訳(メタデータ) (2021-09-03T00:38:05Z) - Active Learning for Deep Neural Networks on Edge Devices [0.0]
本稿では,エッジデバイス上でのニューラルネットワークの実用的な能動学習問題を定式化する。
本稿では,この問題に対処するための一般的なタスクに依存しないフレームワークを提案する。
我々は,実生活シナリオをシミュレートする実践的な環境で,分類タスクとオブジェクト検出タスクの両方に対するアプローチを評価した。
論文 参考訳(メタデータ) (2021-06-21T03:55:33Z) - Pruning and Slicing Neural Networks using Formal Verification [0.2538209532048866]
ディープニューラルネットワーク(DNN)は、様々なコンピュータシステムにおいてますます重要な役割を担っている。
これらのネットワークを作成するために、エンジニアは通常、望ましいトポロジを指定し、自動トレーニングアルゴリズムを使用してネットワークの重みを選択する。
本稿では,近年のDNN検証の進歩を活用して,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-05-28T07:53:50Z) - Self-Progressing Robust Training [146.8337017922058]
敵対的なトレーニングのような現在の堅牢なトレーニング方法は、敵対的な例を生成するために「攻撃」を明示的に使用します。
我々はSPROUTと呼ばれる自己プログレッシブ・ロバスト・トレーニングのための新しいフレームワークを提案する。
その結果,スケーラブルで効果的で攻撃に依存しないロバストなトレーニング手法に新たな光を当てた。
論文 参考訳(メタデータ) (2020-12-22T00:45:24Z) - FAT: Training Neural Networks for Reliable Inference Under Hardware
Faults [3.191587417198382]
本稿では、ニューラルネットワーク(NN)トレーニング中のエラーモデリングを含む、フォールト・アウェア・トレーニング(FAT)と呼ばれる新しい手法を提案し、デバイス上の特定のフォールトモデルに耐性を持たせる。
FATはCIFAR10、GTSRB、SVHN、ImageNetなど多くの分類タスクに対して検証されている。
論文 参考訳(メタデータ) (2020-11-11T16:09:39Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。