論文の概要: NeVer 2.0: Learning, Verification and Repair of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2011.09933v1
- Date: Wed, 18 Nov 2020 14:37:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-24 05:23:50.977649
- Title: NeVer 2.0: Learning, Verification and Repair of Deep Neural Networks
- Title(参考訳): NeVer 2.0: ディープニューラルネットワークの学習、検証、修復
- Authors: Dario Guidotti, Luca Pulina, Armando Tacchella
- Abstract要約: NeVer 2.0はディープニューラルネットワークの自動合成と解析のための新しいシステムである。
NeVer 2.0は、ニューラルネットワークの学習、自動検証、修復を単一のツールに統合する最初のパッケージであるNeVerから設計思想を借用している。
- 参考スコア(独自算出の注目度): 12.112394899530834
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present an early prototype of NeVer 2.0, a new system for
automated synthesis and analysis of deep neural networks.NeVer 2.0borrows its
design philosophy from NeVer, the first package that integrated learning,
automated verification and repair of (shallow) neural networks in a single
tool. The goal of NeVer 2.0 is to provide a similar integration for deep
networks by leveraging a selection of state-of-the-art learning frameworks and
integrating them with verification algorithms to ease the scalability challenge
and make repair of faulty networks possible.
- Abstract(参考訳): 本研究では,深層ニューラルネットワークの自動合成と解析のための新システムであるNeVer 2.0のプロトタイプについて紹介する。NeVer 2.0は,ニューラルネットワークの学習,自動検証,修復を単一のツールに統合した最初のパッケージであるNeVerから設計思想を裏付ける。
NeVer 2.0の目標は、最先端の学習フレームワークの選択を活用し、それらを検証アルゴリズムに統合することで、スケーラビリティの課題を緩和し、障害のあるネットワークの修復を可能にすることにある。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Expediting Neural Network Verification via Network Reduction [4.8621567234713305]
本稿では,検証前の事前処理手法として,ネットワーク削減手法を提案する。
提案手法は、安定なReLUニューロンを除去し、それらをシーケンシャルなニューラルネットワークに変換することにより、ニューラルネットワークを削減する。
我々は、最先端の完全および不完全検証ツールの縮小手法をインスタンス化する。
論文 参考訳(メタデータ) (2023-08-07T06:23:24Z) - Provable Guarantees for Nonlinear Feature Learning in Three-Layer Neural
Networks [49.808194368781095]
3層ニューラルネットワークは,2層ネットワークよりも特徴学習能力が豊富であることを示す。
この研究は、特徴学習体制における2層ネットワーク上の3層ニューラルネットワークの証明可能なメリットを理解するための前進である。
論文 参考訳(メタデータ) (2023-05-11T17:19:30Z) - Simple initialization and parametrization of sinusoidal networks via
their kernel bandwidth [92.25666446274188]
従来の活性化機能を持つネットワークの代替として、活性化を伴う正弦波ニューラルネットワークが提案されている。
まず,このような正弦波ニューラルネットワークの簡易版を提案する。
次に、ニューラルタンジェントカーネルの観点からこれらのネットワークの挙動を分析し、そのカーネルが調整可能な帯域幅を持つ低域フィルタを近似することを実証する。
論文 参考訳(メタデータ) (2022-11-26T07:41:48Z) - Join the High Accuracy Club on ImageNet with A Binary Neural Network
Ticket [10.552465253379134]
ILSVRC-2012 ImageNetにおいて、バイナリニューラルネットワークが重要な精度レベル(例えば80%)をどうやって達成できるのか?
我々は、バイナリアーキテクチャとその最適化プロセスの包括的な研究に基づいて、新しいバイナリアーキテクチャBNextを設計する。
極めて正確なバイナリモデルを訓練する際の直感的オーバーフィッティング問題を軽減するために,新しい知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2022-11-23T13:08:58Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Provable Regret Bounds for Deep Online Learning and Control [77.77295247296041]
我々は、損失関数がニューラルネットワークのパラメータを最適化するために適応できることを示し、後から最も優れたネットと競合することを示す。
オンライン設定におけるこれらの結果の適用として、オンライン制御コントローラの証明可能なバウンダリを得る。
論文 参考訳(メタデータ) (2021-10-15T02:13:48Z) - Deep Spiking Convolutional Neural Network for Single Object Localization
Based On Deep Continuous Local Learning [0.0]
グレースケール画像における単一物体の局所化のための深部畳み込みスパイクニューラルネットワークを提案する。
Oxford-IIIT-Petで報告された結果は、教師付き学習アプローチによるスパイクニューラルネットワークの活用を検証する。
論文 参考訳(メタデータ) (2021-05-12T12:02:05Z) - An SMT-Based Approach for Verifying Binarized Neural Networks [1.4394939014120451]
本稿では,SMTを用いた二元化ニューラルネットワークの検証手法を提案する。
我々の手法の1つの新しい点は、二項化コンポーネントと非二項化コンポーネントの両方を含むニューラルネットワークの検証を可能にすることである。
我々は、この手法をマラブーフレームワークの拡張として実装し、一般的な二項化ニューラルネットワークアーキテクチャのアプローチを評価する。
論文 参考訳(メタデータ) (2020-11-05T16:21:26Z) - Binary Neural Networks: A Survey [126.67799882857656]
バイナリニューラルネットワークは、リソース制限されたデバイスにディープモデルをデプロイするための有望なテクニックとして機能する。
バイナライゼーションは必然的に深刻な情報損失を引き起こし、さらに悪いことに、その不連続性はディープネットワークの最適化に困難をもたらす。
本稿では,2項化を直接実施するネイティブソリューションと,量子化誤差の最小化,ネットワーク損失関数の改善,勾配誤差の低減といった手法を用いて,これらのアルゴリズムを探索する。
論文 参考訳(メタデータ) (2020-03-31T16:47:20Z) - Exploring the Connection Between Binary and Spiking Neural Networks [1.329054857829016]
両立ニューラルネットワークとスパイクニューラルネットワークの訓練における最近のアルゴリズムの進歩を橋渡しする。
極端量子化システムにおけるスパイキングニューラルネットワークのトレーニングは,大規模データセット上でのほぼ完全な精度向上をもたらすことを示す。
論文 参考訳(メタデータ) (2020-02-24T03:46:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。