論文の概要: Robust Optimization Framework for Training Shallow Neural Networks Using
Reachability Method
- arxiv url: http://arxiv.org/abs/2107.12801v1
- Date: Tue, 27 Jul 2021 13:16:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-28 14:30:19.845466
- Title: Robust Optimization Framework for Training Shallow Neural Networks Using
Reachability Method
- Title(参考訳): 到達可能性法を用いた浅層ニューラルネットワークの学習のためのロバスト最適化フレームワーク
- Authors: Yejiang Yang, Weiming Xiang
- Abstract要約: ニューラルネットワークの到達可能性分析に基づいて、浅いニューラルネットワークをトレーニングする堅牢な最適化フレームワークを開発した。
開発したロバスト学習法は,トレーニング精度の損失に対して,摂動に対する堅牢性を向上できることを示した。
- 参考スコア(独自算出の注目度): 1.9798034349981157
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, a robust optimization framework is developed to train shallow
neural networks based on reachability analysis of neural networks. To
characterize noises of input data, the input training data is disturbed in the
description of interval sets. Interval-based reachability analysis is then
performed for the hidden layer. With the reachability analysis results, a
robust optimization training method is developed in the framework of robust
least-square problems. Then, the developed robust least-square problem is
relaxed to a semidefinite programming problem. It has been shown that the
developed robust learning method can provide better robustness against
perturbations at the price of loss of training accuracy to some extent. At
last, the proposed method is evaluated on a robot arm model learning example.
- Abstract(参考訳): 本稿では,ニューラルネットワークの到達可能性解析に基づく浅層ニューラルネットワークの学習のためのロバスト最適化フレームワークを開発した。
入力データのノイズを特徴付けるために、間隔集合の記述において入力訓練データが乱される。
次に、インターバルベース到達可能性解析を隠れた層に対して行う。
到達可能性分析の結果,ロバスト最小二乗問題の枠組みにおいてロバスト最適化トレーニング手法が開発された。
そして、開発されたロバスト最小二乗問題は半定値プログラミング問題に緩和される。
開発した頑健な学習手法により,ある程度のトレーニング精度の喪失により,摂動に対する堅牢性が向上することが示されている。
最後に,ロボットアームモデル学習例を用いて提案手法の評価を行った。
関連論文リスト
- A constrained optimization approach to improve robustness of neural networks [1.2338729811609355]
クリーンなデータに対する精度を維持しつつ、敵攻撃に対する堅牢性を向上させるために、ファインチューン事前学習ニューラルネットワークに対する非線形プログラミングに基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-18T18:37:14Z) - Maintaining Adversarial Robustness in Continuous Learning [10.746120682014437]
防衛アルゴリズムによって強化された敵の堅牢性は、ニューラルネットワークの重みが更新されて新しいタスクが学習されるため、容易に消去される。
本稿では,従来のデータから試料勾配を効果的に安定化させる新しい勾配予測手法を提案する。
この技術は、サンプル勾配平滑化による防御アルゴリズムのクラスと協調することにより、堅牢性を維持することができる。
論文 参考訳(メタデータ) (2024-02-17T05:14:47Z) - An Analytic End-to-End Deep Learning Algorithm based on Collaborative
Learning [5.710971447109949]
本稿では, 完全連結ニューラルネットワーク(FNN)の終端深層学習におけるスムーズなアクティベーション機能を持つ収束解析について述べる。
提案手法は,潜在的な解答の問題を回避するとともに,解答の問題も容易には起こらない。
論文 参考訳(メタデータ) (2023-05-26T08:09:03Z) - Contraction-Guided Adaptive Partitioning for Reachability Analysis of
Neural Network Controlled Systems [5.359060261460183]
非線形フィードバックループにおける区間値到達可能集合の推定値を改善するための収縮誘導適応分割アルゴリズムを提案する。
ニューラルネットワーク検証ステップとリーチビリティパーティショニングレイヤの分離を活用することで、アルゴリズムは計算コストの少ない精度の向上を提供することができる。
本稿では,現状の手法と比較して,ランタイムのごく一部において,到達可能な集合推定の精度が大幅に向上したことを報告する。
論文 参考訳(メタデータ) (2023-04-07T14:43:21Z) - A Comprehensive Study on Robustness of Image Classification Models:
Benchmarking and Rethinking [54.89987482509155]
ディープニューラルネットワークのロバスト性は、通常、敵の例、共通の腐敗、分散シフトに欠けている。
画像分類タスクにおいてtextbfARES-Bench と呼ばれる総合的なベンチマークロバスト性を確立する。
それに応じてトレーニング設定を設計することにより、新しい最先端の対人ロバスト性を実現する。
論文 参考訳(メタデータ) (2023-02-28T04:26:20Z) - A Novel Noise Injection-based Training Scheme for Better Model
Robustness [9.749718440407811]
ノイズインジェクションに基づく手法は、人工ニューラルネットワークの堅牢性を向上させることができることが示されている。
本研究では,より優れたモデルロバスト性を実現するための新しいノイズ注入型トレーニング手法を提案する。
実験結果から,提案手法は対向的ロバスト性において性能が向上し,元の精度では若干性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-02-17T02:50:25Z) - Towards Robust Dataset Learning [90.2590325441068]
本稿では,頑健なデータセット学習問題を定式化するための三段階最適化法を提案する。
ロバストな特徴と非ロバストな特徴を特徴付ける抽象モデルの下で,提案手法はロバストなデータセットを確実に学習する。
論文 参考訳(メタデータ) (2022-11-19T17:06:10Z) - Scalable computation of prediction intervals for neural networks via
matrix sketching [79.44177623781043]
既存の不確実性推定アルゴリズムでは、モデルアーキテクチャとトレーニング手順を変更する必要がある。
本研究では、与えられたトレーニングされたニューラルネットワークに適用し、近似予測間隔を生成できる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-06T13:18:31Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - A Simple Fine-tuning Is All You Need: Towards Robust Deep Learning Via
Adversarial Fine-tuning [90.44219200633286]
我々は,$textitslow start, fast decay$ learning rate schedulingストラテジーに基づく,単純かつ非常に効果的な敵の微調整手法を提案する。
実験の結果,提案手法はCIFAR-10, CIFAR-100, ImageNetデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2020-12-25T20:50:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。