論文の概要: Sound and Complete Neural Network Repair with Minimality and Locality
Guarantees
- arxiv url: http://arxiv.org/abs/2110.07682v1
- Date: Thu, 14 Oct 2021 19:40:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 14:20:48.568829
- Title: Sound and Complete Neural Network Repair with Minimality and Locality
Guarantees
- Title(参考訳): 最小限と局所性保証を用いた音と完全ニューラルネットワーク修復
- Authors: Feisi Fu, Wenchao Li
- Abstract要約: 本稿では,ReLUアクティベーション関数を用いたニューラルネットワークの修復手法を提案する。
我々の手法は関数空間の局所的な変化のみを適用しながら、バギーな振る舞いの除去を保証している。
修復されたネットワークはバギー入力の修正が保証され、パッチはバギー入力の発見が保証されます。
- 参考スコア(独自算出の注目度): 7.188571996124112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel methodology for repairing neural networks that use ReLU
activation functions. Unlike existing methods that rely on modifying the
weights of a neural network which can induce a global change in the function
space, our approach applies only a localized change in the function space while
still guaranteeing the removal of the buggy behavior. By leveraging the
piecewise linear nature of ReLU networks, our approach can efficiently
construct a patch network tailored to the linear region where the buggy input
resides, which when combined with the original network, provably corrects the
behavior on the buggy input. Our method is both sound and complete -- the
repaired network is guaranteed to fix the buggy input, and a patch is
guaranteed to be found for any buggy input. Moreover, our approach preserves
the continuous piecewise linear nature of ReLU networks, automatically
generalizes the repair to all the points including other undetected buggy
inputs inside the repair region, is minimal in terms of changes in the function
space, and guarantees that outputs on inputs away from the repair region are
unaltered. On several benchmarks, we show that our approach significantly
outperforms existing methods in terms of locality and limiting negative side
effects.
- Abstract(参考訳): 本稿では,ReLUアクティベーション関数を用いたニューラルネットワークの修復手法を提案する。
関数空間のグローバルな変化を誘発するニューラルネットワークの重みの変更に依存する既存の手法とは異なり、我々のアプローチは、バグギーな振る舞いの除去を保証しながら、関数空間の局所的な変化のみを適用する。
提案手法は,ReLUネットワークの断片的線形性を活用することにより,バギー入力が駐在するリニア領域に適したパッチネットワークを効率的に構築し,元のネットワークと組み合わせることで,バギー入力の動作を確実に補正することができる。
修正されたネットワークはバギー入力の修正が保証され、パッチはバギー入力で見つかることが保証されます。
さらに,本手法では,ReLUネットワークの連続的な部分的線形性を保ち,修復領域内の他の未検出バギー入力を含む全ての点に対する修復を自動的に一般化し,機能空間の変化を最小限に抑え,修復領域から離れた入力に対する出力が変更されないことを保証している。
いくつかのベンチマークにおいて,提案手法は局所性と負の副作用の制限の観点から既存手法よりも著しく優れていた。
関連論文リスト
- Automated Design of Linear Bounding Functions for Sigmoidal Nonlinearities in Neural Networks [23.01933325606068]
既存の完全検証技術は、すべての堅牢性クエリに対して証明可能な保証を提供するが、小さなニューラルネットワークを超えてスケールするのに苦労する。
本稿では,これらの線形近似の品質向上のためのパラメータ探索手法を提案する。
具体的には、最先端のアルゴリズム構成手法によって与えられた検証問題に慎重に適応する単純な探索手法を用いることで、最先端技術よりも平均で25%のグローバルローバウンドを向上することを示す。
論文 参考訳(メタデータ) (2024-06-14T16:16:26Z) - Bridging the Gap Between End-to-End and Two-Step Text Spotting [88.14552991115207]
ブリッジングテキストスポッティングは、2段階のメソッドでエラーの蓄積と最適化性能の問題を解決する新しいアプローチである。
提案手法の有効性を広範囲な実験により実証する。
論文 参考訳(メタデータ) (2024-04-06T13:14:04Z) - Zonotope Domains for Lagrangian Neural Network Verification [102.13346781220383]
我々は、ディープニューラルネットワークを多くの2層ニューラルネットワークの検証に分解する。
我々の手法は線形プログラミングとラグランジアンに基づく検証技術の両方により改善された境界を与える。
論文 参考訳(メタデータ) (2022-10-14T19:31:39Z) - Efficient Global Robustness Certification of Neural Networks via
Interleaving Twin-Network Encoding [8.173681464694651]
混合整数線形プログラミング(MILP)問題として、ReLUアクティベーション機能付きニューラルネットワークのグローバルロバスト性認証を定式化する。
我々のアプローチは、ニューラルネットワークの2つのコピーを並べて符号化する、新しいインターリービングツインネットワーク符号化スキームを含む。
クローズドループ制御の安全性検証のケーススタディを行い,本手法の重要性と実用性を実証した。
論文 参考訳(メタデータ) (2022-03-26T19:23:37Z) - Traversing the Local Polytopes of ReLU Neural Networks: A Unified
Approach for Network Verification [6.71092092685492]
ReLUアクティベーション機能を備えたニューラルネットワーク(NN)は、幅広いアプリケーションで成功している。
頑健さを検証し,解釈可能性を向上させるための従来の研究は,ReLU NNの断片線形関数形式を部分的に活用した。
本稿では,ReLU NNが入力空間で生成する独自のトポロジ構造について検討し,分割した局所ポリトープ間の隣接性を同定する。
論文 参考訳(メタデータ) (2021-11-17T06:12:39Z) - Local Repair of Neural Networks Using Optimization [13.337627875398393]
トレーニング済みフィードフォワードニューラルネットワーク(NN)を修復する枠組みを提案する。
対象の入力領域に対してNNの出力に制約を課す述語の一式としてプロパティを定式化する。
本稿では,アフィン変換のバウンダリング,誤分類NNの修正,NNコントローラのインプットのバウンダリングにおけるフレームワークの適用例を示す。
論文 参考訳(メタデータ) (2021-09-28T20:52:26Z) - Safe-by-Repair: A Convex Optimization Approach for Repairing Unsafe
Two-Level Lattice Neural Network Controllers [1.6500749121196987]
既知の"counterexample"状態における安全でないクローズドループ動作の修復を目指す。
また、別個の検証された状態集合上での安全な閉ループ挙動の概念も保存する。
それぞれの部分問題を解くための十分条件の組が凸実現可能性問題としてキャストできることを示す。
論文 参考訳(メタデータ) (2021-04-06T21:21:24Z) - Unsupervised Metric Relocalization Using Transform Consistency Loss [66.19479868638925]
メートル法再ローカライズを行うためのトレーニングネットワークは、従来、正確な画像対応が必要である。
地図内のクエリ画像のローカライズは、登録に使用される参照画像に関係なく、同じ絶対的なポーズを与えるべきである。
提案手法は, 限られた地下構造情報が得られる場合に, 他の教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-11-01T19:24:27Z) - Improve Generalization and Robustness of Neural Networks via Weight
Scale Shifting Invariant Regularizations [52.493315075385325]
重み劣化を含む正則化器の族は、均質な活性化関数を持つネットワークに対する本質的な重みのノルムをペナルティ化するのに有効でないことを示す。
そこで我々は,ニューラルネットワークの本質的な規範を効果的に制約する改良型正規化器を提案する。
論文 参考訳(メタデータ) (2020-08-07T02:55:28Z) - Neural Subdivision [58.97214948753937]
本稿では,データ駆動型粗粒度モデリングの新しいフレームワークであるNeural Subdivisionを紹介する。
すべてのローカルメッシュパッチで同じネットワーク重みのセットを最適化するため、特定の入力メッシュや固定属、カテゴリに制約されないアーキテクチャを提供します。
単一の高分解能メッシュでトレーニングしても,本手法は新規な形状に対して合理的な区分を生成する。
論文 参考訳(メタデータ) (2020-05-04T20:03:21Z) - Intra Order-preserving Functions for Calibration of Multi-Class Neural
Networks [54.23874144090228]
一般的なアプローチは、元のネットワークの出力をキャリブレーションされた信頼スコアに変換する、ポストホックキャリブレーション関数を学ぶことである。
以前のポストホックキャリブレーション技術は単純なキャリブレーション機能でしか機能しない。
本稿では,順序保存関数のクラスを表すニューラルネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-15T12:57:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。