論文の概要: Verifying Global Neural Network Specifications using Hyperproperties
- arxiv url: http://arxiv.org/abs/2306.12495v1
- Date: Wed, 21 Jun 2023 18:08:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 16:33:17.310391
- Title: Verifying Global Neural Network Specifications using Hyperproperties
- Title(参考訳): ハイパープロペラティを用いたグローバルニューラルネットワーク仕様の検証
- Authors: David Boetius and Stefan Leue
- Abstract要約: すべての潜在的な入力の保証を提供するグローバル仕様について研究する。
私たちのフォーマリズムは、既存のニューラルネットワーク検証アプローチを使用して、グローバル仕様の検証を可能にします。
特定のグローバルな仕様を検証する最近の成功は、すべての潜在的なデータポイントに対する強力な保証が実現可能であることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Current approaches to neural network verification focus on specifications
that target small regions around known input data points, such as local
robustness. Thus, using these approaches, we can not obtain guarantees for
inputs that are not close to known inputs. Yet, it is highly likely that a
neural network will encounter such truly unseen inputs during its application.
We study global specifications that - when satisfied - provide guarantees for
all potential inputs. We introduce a hyperproperty formalism that allows for
expressing global specifications such as monotonicity, Lipschitz continuity,
global robustness, and dependency fairness. Our formalism enables verifying
global specifications using existing neural network verification approaches by
leveraging capabilities for verifying general computational graphs. Thereby, we
extend the scope of guarantees that can be provided using existing methods.
Recent success in verifying specific global specifications shows that attaining
strong guarantees for all potential data points is feasible.
- Abstract(参考訳): ニューラルネットワーク検証に対する現在のアプローチは、ローカルロバストネスなど、既知の入力データポイント周辺の小さな領域をターゲットにした仕様に焦点を当てている。
したがって、これらの手法を用いて、既知の入力に近づかない入力の保証を得ることはできない。
しかし、ニューラルネットワークがアプリケーション中にそのような真に目に見えない入力に遭遇する可能性は極めて高い。
我々は、すべての潜在的な入力に対する保証を提供するグローバル仕様を研究します。
我々は,モノトニック性,リプシッツ連続性,グローバルロバスト性,依存性公平性などのグローバル仕様を表現可能な超プロパティ形式を導入する。
汎用計算グラフの検証機能を活用し,既存のニューラルネットワーク検証手法を用いてグローバル仕様の検証を可能にする。
これにより、既存の手法で提供可能な保証の範囲を広げる。
特定のグローバルな仕様を検証する最近の成功は、すべての潜在的なデータポイントに対する強力な保証が実現可能であることを示している。
関連論文リスト
- Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - Enumerating Safe Regions in Deep Neural Networks with Provable
Probabilistic Guarantees [86.1362094580439]
安全プロパティとDNNが与えられた場合、安全であるプロパティ入力領域のすべての領域の集合を列挙する。
この問題の #P-hardness のため,epsilon-ProVe と呼ばれる効率的な近似法を提案する。
提案手法は, 許容限界の統計的予測により得られた出力可到達集合の制御可能な過小評価を利用する。
論文 参考訳(メタデータ) (2023-08-18T22:30:35Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Toward Reliable Neural Specifications [3.2722498341029653]
既存のニューラルネットワークの仕様は、仕様としてデータのパラダイムにある。
本稿では,ニューラル表現を仕様とする新しい仕様群を提案する。
NAPを用いて入力空間全体の予測を検証でき、データの84%をリコールできることを示す。
論文 参考訳(メタデータ) (2022-10-28T13:21:28Z) - Sound and Complete Verification of Polynomial Networks [55.9260539566555]
PN(Polynomial Networks)は、最近顔と画像の認識において有望な性能を示した。
分岐とバウンド(BaB)技術に基づくReLUニューラルネットワーク(NN)上の既存の検証アルゴリズムは、PN検証に自明に適用できない。
我々は、VPNと呼ばれるグローバルコンバージェンス保証のためのBaBを備えた新しいバウンダリング手法を考案した。
論文 参考訳(メタデータ) (2022-09-15T11:50:43Z) - Learning Invariances with Generalised Input-Convex Neural Networks [3.5611181253285253]
本稿では,スムーズなネットワークを形成する連結レベルセットを持つことが保証される関数を表現する,フレキシブルニューラルネットワークの新たなクラスを紹介する。
計算化学などの実世界の応用において,不変性を特徴付ける新しい手法が強力な生成データ探索ツールであることを示す。
論文 参考訳(メタデータ) (2022-04-14T15:03:30Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Globally-Robust Neural Networks [21.614262520734595]
我々は、オンラインローカルロバストネス認証の運用特性を捉えた、グローバルロバストネスの概念を定式化する。
効率的なグローバルLipschitz境界をネットワークに組み込むことにより、広く使用されているアーキテクチャをこの目的に容易に適応できることを示します。
論文 参考訳(メタデータ) (2021-02-16T21:10:52Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z) - Global Robustness Verification Networks [33.52550848953545]
3つのコンポーネントからなるグローバルロバストネス検証フレームワークを開発した。
実現可能なルールベースのバックプロパゲーションを可能にする新しいネットワークアーキテクチャ Sliding Door Network (SDN)
合成データと実データの両方にアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-06-08T08:09:20Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。