論文の概要: A Robust Optimisation Perspective on Counterexample-Guided Repair of
Neural Networks
- arxiv url: http://arxiv.org/abs/2301.11342v1
- Date: Thu, 26 Jan 2023 19:00:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:35:05.216325
- Title: A Robust Optimisation Perspective on Counterexample-Guided Repair of
Neural Networks
- Title(参考訳): ニューラルネットワークの反例誘導修復におけるロバスト最適化の視点
- Authors: David Boetius, Stefan Leue, Tobias Sutter
- Abstract要約: 本稿では, 逆例誘導修復をロバストな最適化アルゴリズムとみなすことができることを示す。
我々は、より抑制された機械学習モデルに対する終端を証明し、一般的な環境での終端を証明した。
- 参考スコア(独自算出の注目度): 2.82532357999662
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterexample-guided repair aims at creating neural networks with
mathematical safety guarantees, facilitating the application of neural networks
in safety-critical domains. However, whether counterexample-guided repair is
guaranteed to terminate remains an open question. We approach this question by
showing that counterexample-guided repair can be viewed as a robust
optimisation algorithm. While termination guarantees for neural network repair
itself remain beyond our reach, we prove termination for more restrained
machine learning models and disprove termination in a general setting. We
empirically study the practical implications of our theoretical results,
demonstrating the suitability of common verifiers and falsifiers for repair
despite a disadvantageous theoretical result. Additionally, we use our
theoretical insights to devise a novel algorithm for repairing linear
regression models, surpassing existing approaches.
- Abstract(参考訳): Counterexample-Guided repairは、数学的安全性を保証するニューラルネットワークの作成を目標とし、安全クリティカルドメインへのニューラルネットワークの適用を容易にする。
しかし、反例による修理が終了を保証されるかどうかは、まだ未解決の問題である。
我々は,反例誘導修復を頑健な最適化アルゴリズムとして捉えることにより,この問題にアプローチする。
ニューラルネットワークの修復自体の終了保証は到達範囲を超えていますが、より抑制された機械学習モデルの終了を証明し、一般的な環境での終了を論じます。
我々は, 理論結果の実用的意義を実証的に研究し, 不利な理論結果にもかかわらず, 共通検証器とファルシファイアの修理適性を示す。
さらに,線形回帰モデルに対する新しいアルゴリズムを考案し,既存の手法を超越した理論的考察を行った。
関連論文リスト
- Invertible ResNets for Inverse Imaging Problems: Competitive Performance with Provable Regularization Properties [0.0]
Arndtらによる最近の研究は、可逆的残差ネットワーク(iResNets)に基づくデータ駆動型再構成法を解析して、このギャップに対処している。
Arndtらによる理論的結果のいくつかを非線形逆問題に包含するように拡張し、大規模高性能iResNetアーキテクチャの設計に対する洞察を提供する。
論文 参考訳(メタデータ) (2024-09-20T13:15:26Z) - Regularization, early-stopping and dreaming: a Hopfield-like setup to
address generalization and overfitting [0.0]
正規化損失関数に勾配降下を適用し,最適ネットワークパラメータを求める。
この枠組みの中で、最適なニューロン相互作用行列は、繰り返し学習プロトコルによって修正されたヘビアン核に対応する。
論文 参考訳(メタデータ) (2023-08-01T15:04:30Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Provably tuning the ElasticNet across instances [53.0518090093538]
我々は、複数の問題インスタンスにまたがるリッジ回帰、LASSO、ElasticNetの正規化パラメータをチューニングする問題を考察する。
我々の結果は、この重要な問題に対する学習理論による最初の一般的な保証である。
論文 参考訳(メタデータ) (2022-07-20T21:22:40Z) - Automated Repair of Neural Networks [0.26651200086513094]
安全でないNNの安全仕様を修復するためのフレームワークを提案する。
提案手法では,重み値のいくつかを修正して,新しい安全なNN表現を探索することができる。
我々は,提案するフレームワークが安全なNNを実現する能力を示す広範な実験を行った。
論文 参考訳(メタデータ) (2022-07-17T12:42:24Z) - CC-Cert: A Probabilistic Approach to Certify General Robustness of
Neural Networks [58.29502185344086]
安全クリティカルな機械学習アプリケーションでは、モデルを敵の攻撃から守ることが不可欠である。
意味的に意味のある入力変換に対して、ディープラーニングモデルの証明可能な保証を提供することが重要である。
我々はChernoff-Cramer境界に基づく新しい普遍確率的証明手法を提案する。
論文 参考訳(メタデータ) (2021-09-22T12:46:04Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Bayesian Inference with Certifiable Adversarial Robustness [25.40092314648194]
ベイズ学習のレンズによる対向学習ネットワークについて考察する。
本稿では,ベイズニューラルネットワーク(BNN)の認証保証付き対数訓練のための基本的枠組みを提案する。
本手法は,認証済みBNNを直接訓練する最初の方法であり,安全クリティカルなアプリケーションでの使用を容易にする。
論文 参考訳(メタデータ) (2021-02-10T07:17:49Z) - Towards a Theoretical Understanding of the Robustness of Variational
Autoencoders [82.68133908421792]
敵攻撃や他の入力摂動に対する変分オートエンコーダ(VAE)の堅牢性を理解するために,我々は進出している。
確率モデルにおけるロバスト性のための新しい基準である$r$-robustnessを開発する。
遠心法を用いて訓練したVAEが、ロバストネスの指標でよく評価されていることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:22:29Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。