論文の概要: Sparsity in neural networks can improve their privacy
- arxiv url: http://arxiv.org/abs/2304.10553v1
- Date: Thu, 20 Apr 2023 09:44:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-24 17:04:42.508382
- Title: Sparsity in neural networks can improve their privacy
- Title(参考訳): ニューラルネットワークのスパリティはプライバシーを向上する
- Authors: Antoine Gonon (OCKHAM, ARIC), L\'eon Zheng (OCKHAM), Cl\'ement Lalanne
(OCKHAM), Quoc-Tung Le (OCKHAM), Guillaume Lauga (OCKHAM), Can Pouliquen
(OCKHAM)
- Abstract要約: 本稿は、ニューラルネットワークがメンバーシップ推論攻撃に対していかに堅牢になるかを測る。
得られた実験結果から,ネットワークの疎結合性はネットワークのプライバシを向上し,手前のタスクに匹敵する性能を保っていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article measures how sparsity can make neural networks more robust to
membership inference attacks. The obtained empirical results show that sparsity
improves the privacy of the network, while preserving comparable performances
on the task at hand. This empirical study completes and extends existing
literature.
- Abstract(参考訳): 本稿は、ニューラルネットワークがメンバーシップ推論攻撃に対していかに堅牢になるかを測る。
得られた実験結果から,ネットワークの疎結合性はネットワークのプライバシを向上し,手前のタスクに匹敵する性能を保っていることが示された。
この実証研究は、既存の文学を完成し、拡張する。
関連論文リスト
- In deep reinforcement learning, a pruned network is a good network [15.034544525635226]
深層強化学習エージェントは,ネットワークパラメータの有効利用が困難である。
段階的等級プルーニングにより,エージェントがパラメータの有効性を最大化できることを示す。
この結果、従来のネットワークよりも劇的なパフォーマンス向上をもたらすネットワークが生まれる。
論文 参考訳(メタデータ) (2024-02-19T19:34:07Z) - Verification-Friendly Deep Neural Networks [3.6064695344878093]
検証フレンドリなニューラルネットワーク(VNN)を生成するための新しいフレームワークを提案する。
提案手法は,予測性能の点で元のネットワークに匹敵するネットワークを実現する。
これにより、ディープニューラルネットワークよりも多くのVNNに対して堅牢性を確立することができます。
論文 参考訳(メタデータ) (2023-12-15T12:39:27Z) - Sparsity in neural networks can increase their privacy [0.0]
本稿は、ニューラルネットワークがメンバーシップ推論攻撃に対していかに堅牢になるかを測る。
得られた実験結果から,ネットワークの疎結合性はネットワークのプライバシを向上し,手前のタスクに匹敵する性能を保っていることが示された。
論文 参考訳(メタデータ) (2023-04-11T09:34:22Z) - Quasi-orthogonality and intrinsic dimensions as measures of learning and
generalisation [55.80128181112308]
ニューラルネットワークの特徴空間の次元性と準直交性は、ネットワークの性能差別と共同して機能する可能性があることを示す。
本研究は, ネットワークの最終的な性能と, ランダムに初期化された特徴空間の特性との関係を示唆する。
論文 参考訳(メタデータ) (2022-03-30T21:47:32Z) - Robustness against Adversarial Attacks in Neural Networks using
Incremental Dissipativity [3.8673567847548114]
逆例はニューラルネットワークの分類性能を低下させるのが容易である。
本研究は,ニューラルネットワークに対する漸進的拡散性に基づくロバスト性証明を提案する。
論文 参考訳(メタデータ) (2021-11-25T04:42:57Z) - Residual Error: a New Performance Measure for Adversarial Robustness [85.0371352689919]
ディープラーニングの広く普及を制限する大きな課題は、敵の攻撃に対する脆弱さである。
本研究は,ディープニューラルネットワークの対角強靭性を評価するための新しい性能尺度である残留誤差の概念を提示する。
画像分類を用いた実験結果から,提案手法の有効性と有効性を示した。
論文 参考訳(メタデータ) (2021-06-18T16:34:23Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Sparsity in Deep Learning: Pruning and growth for efficient inference
and training in neural networks [78.47459801017959]
Sparsityは、モバイル機器に適合する通常のネットワークのメモリフットプリントを減らすことができる。
ニューラルネットワークの要素を除去および追加するためのアプローチ、モデルの疎性を達成するための異なるトレーニング戦略、実際に疎性を利用するメカニズムについて説明する。
論文 参考訳(メタデータ) (2021-01-31T22:48:50Z) - Rethinking Clustering for Robustness [56.14672993686335]
ClusTRは、ロバストモデルを学ぶためのクラスタリングベースの、対向のないトレーニングフレームワークである。
textitClusTRは、強いPGD攻撃の下で、敵に訓練されたネットワークを最大4%上回ります。
論文 参考訳(メタデータ) (2020-06-13T16:55:51Z) - Privacy-preserving Learning via Deep Net Pruning [41.80633825456656]
この論文は、ニューラルネットワークの特定の層をプルーニングすることは、その隠された層活性化に一定の量の微分プライベートノイズを加えることと等価であることを証明している。
その結果、ニューラルネットワークのプルーニングは、ニューラルネットワークに微分プライベートノイズを加えるよりも、より効果的な方法であることが示された。
論文 参考訳(メタデータ) (2020-03-04T03:42:54Z) - Understanding Generalization in Deep Learning via Tensor Methods [53.808840694241]
圧縮の観点から,ネットワークアーキテクチャと一般化可能性の関係について理解を深める。
本稿では、ニューラルネットワークの圧縮性と一般化性を強く特徴付ける、直感的で、データ依存的で、測定が容易な一連の特性を提案する。
論文 参考訳(メタデータ) (2020-01-14T22:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。