論文の概要: Verification of Neural Networks Local Differential Classification
Privacy
- arxiv url: http://arxiv.org/abs/2310.20299v1
- Date: Tue, 31 Oct 2023 09:11:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 15:44:01.282933
- Title: Verification of Neural Networks Local Differential Classification
Privacy
- Title(参考訳): ニューラルネットワークの局所微分分類プライバシの検証
- Authors: Roie Reshef, Anan Kabaha, Olga Seleznova, and Dana Drachsler-Cohen
- Abstract要約: ローカル差分分類プライバシー(LDCP)と呼ばれる新しいプライバシー特性を提案する。
LDCPはローカルロバスト性をブラックボックス分類器に適した差分プライバシー設定に拡張する。
Sphynxは、ネットワークの小さな集合から高い確率で全てのネットワークを抽象化するアルゴリズムである。
- 参考スコア(独自算出の注目度): 1.3024517678456733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural networks are susceptible to privacy attacks. To date, no verifier can
reason about the privacy of individuals participating in the training set. We
propose a new privacy property, called local differential classification
privacy (LDCP), extending local robustness to a differential privacy setting
suitable for black-box classifiers. Given a neighborhood of inputs, a
classifier is LDCP if it classifies all inputs the same regardless of whether
it is trained with the full dataset or whether any single entry is omitted. A
naive algorithm is highly impractical because it involves training a very large
number of networks and verifying local robustness of the given neighborhood
separately for every network. We propose Sphynx, an algorithm that computes an
abstraction of all networks, with a high probability, from a small set of
networks, and verifies LDCP directly on the abstract network. The challenge is
twofold: network parameters do not adhere to a known distribution probability,
making it difficult to predict an abstraction, and predicting too large
abstraction harms the verification. Our key idea is to transform the parameters
into a distribution given by KDE, allowing to keep the over-approximation error
small. To verify LDCP, we extend a MILP verifier to analyze an abstract
network. Experimental results show that by training only 7% of the networks,
Sphynx predicts an abstract network obtaining 93% verification accuracy and
reducing the analysis time by $1.7\cdot10^4$x.
- Abstract(参考訳): ニューラルネットワークはプライバシー攻撃の影響を受けやすい。
これまでのところ、認定者はトレーニングセットに参加している個人のプライバシーを判断できない。
本稿では,ローカル微分分類プライバシ(ldcp)と呼ばれる新たなプライバシ特性を提案し,ブラックボックス分類器に適した差分プライバシ設定に局所的ロバスト性を拡張する。
入力の近傍が与えられた場合、すべての入力がフルデータセットでトレーニングされているか、あるいは単一のエントリが省略されているかに関わらず、LDCPである。
非常に多数のネットワークをトレーニングし、各ネットワークに対してそれぞれの地区の局所的ロバスト性を個別に検証するので、ナイーブアルゴリズムは非常に実用的ではない。
sphynx を提案する。sphynx は,ネットワークの小さなセットから,高い確率ですべてのネットワークの抽象化を計算し,抽象ネットワーク上で直接 ldcp を検証するアルゴリズムである。
ネットワークパラメータは既知の分布確率に従わないため、抽象化の予測が困難であり、大きすぎる抽象化の予測は検証を損なう。
我々のキーとなる考え方は、パラメータをKDEが与える分布に変換することで、過剰近似誤差を小さくすることです。
LDCPを検証するため、MILP検証器を拡張して抽象ネットワークを解析する。
実験の結果、ネットワークのわずか7%をトレーニングすることで、93%の検証精度を得た抽象ネットワークを予測し、分析時間を1.7\cdot10^4$x削減できることがわかった。
関連論文リスト
- VeriFlow: Modeling Distributions for Neural Network Verification [4.3012765978447565]
フォーマル検証は、ニューラルネットワークの安全性と信頼性を保証するための有望な方法として登場した。
本稿では,流れに基づく密度モデルとしてVeriFlowアーキテクチャを提案する。
論文 参考訳(メタデータ) (2024-06-20T12:41:39Z) - DP-DCAN: Differentially Private Deep Contrastive Autoencoder Network for Single-cell Clustering [29.96339380816541]
ディープラーニングモデルは、ユーザの機密情報を漏洩する可能性がある。
差別化プライバシ(DP)は、プライバシーを保護するためにますます使われています。
本稿では,ネットワークの中央にある次元再現ベクトルのみを出力するオートエンコーダの特異性を利用する。
単一セルクラスタリングのための部分的ネットワーク摂動により、差分的にプライベートなDeep Contrastive Autoencoder Network (DP-DCAN) を設計する。
論文 参考訳(メタデータ) (2023-11-06T05:13:29Z) - Unfolding Local Growth Rate Estimates for (Almost) Perfect Adversarial
Detection [22.99930028876662]
畳み込みニューラルネットワーク(CNN)は、多くの知覚的タスクにおける最先端のソリューションを定義する。
現在のCNNアプローチは、システムを騙すために特別に作られた入力の敵の摂動に対して脆弱なままである。
本稿では,ネットワークの局所固有次元(LID)と敵攻撃の関係について,最近の知見を生かした,シンプルで軽量な検出器を提案する。
論文 参考訳(メタデータ) (2022-12-13T17:51:32Z) - Interpreting deep learning output for out-of-distribution detection [0.6091702876917279]
深層学習ネットワークにおける分布外検出のための新しい手法を開発した。
この方法は、モデル学習プロセスとその出力の理解と解釈への説明的なステップを提供する。
我々は,透過型電子顕微鏡ウイルス画像データセット上でのOOD検出手法を実証した。
論文 参考訳(メタデータ) (2022-11-07T15:48:08Z) - Robust-by-Design Classification via Unitary-Gradient Neural Networks [66.17379946402859]
安全クリティカルシステムにおけるニューラルネットワークの使用には、敵攻撃が存在するため、安全で堅牢なモデルが必要である。
任意の入力 x の最小逆摂動を知るか、または同値に、分類境界から x の距離は、分類ロバスト性を評価し、証明可能な予測を与える。
Unitary-Gradient Neural Networkと呼ばれる新しいネットワークアーキテクチャが紹介される。
実験結果から,提案アーキテクチャは符号付き距離を近似し,単一の推論コストでxのオンライン分類が可能であることがわかった。
論文 参考訳(メタデータ) (2022-09-09T13:34:51Z) - DAAIN: Detection of Anomalous and Adversarial Input using Normalizing
Flows [52.31831255787147]
我々は、アウト・オブ・ディストリビューション(OOD)インプットと敵攻撃(AA)を検出する新しい手法であるDAINを導入する。
本手法は,ニューラルネットワークの内部動作を監視し,活性化分布の密度推定器を学習する。
当社のモデルは,特別なアクセラレータを必要とせずに,効率的な計算とデプロイが可能な単一のGPUでトレーニングすることが可能です。
論文 参考訳(メタデータ) (2021-05-30T22:07:13Z) - Full network nonlocality [68.8204255655161]
ネットワーク内のすべてのリンクが非ローカルリソースを分散するために必要となる相関関係を記述した完全ネットワーク非ローカル性の概念を導入する。
最もよく知られているネットワークベル試験では,ネットワークの非局所性は見られていない。
より一般に、ネットワーク内の局所的および理論に依存しない相関を解析するための確立された手法は、完全なネットワーク非局所性のための十分な条件を導出するために組み合わせることができると指摘する。
論文 参考訳(メタデータ) (2021-05-19T18:00:02Z) - Enabling certification of verification-agnostic networks via
memory-efficient semidefinite programming [97.40955121478716]
本稿では,ネットワークアクティベーションの総数にのみ線形なメモリを必要とする一階二重SDPアルゴリズムを提案する。
L-inf の精度は 1% から 88% ,6% から 40% に改善した。
また,変分オートエンコーダの復号器に対する2次安定性仕様の厳密な検証を行った。
論文 参考訳(メタデータ) (2020-10-22T12:32:29Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - ESPN: Extremely Sparse Pruned Networks [50.436905934791035]
簡単な反復マスク探索法により,非常に深いネットワークの最先端の圧縮を実現することができることを示す。
本アルゴリズムは,シングルショット・ネットワーク・プルーニング法とロッテ・ティケット方式のハイブリッド・アプローチを示す。
論文 参考訳(メタデータ) (2020-06-28T23:09:27Z) - One-vs-Rest Network-based Deep Probability Model for Open Set
Recognition [6.85316573653194]
インテリジェントな自己学習システムは、既知の例と未知の例を区別することができるべきである。
1-vs-restネットワークは、よく使われるSoftMaxレイヤよりも、未知の例に対して、より有益な隠れ表現を提供することができる。
提案した確率モデルは、オープンセットの分類シナリオにおいて最先端の手法よりも優れていた。
論文 参考訳(メタデータ) (2020-04-17T05:24:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。