論文の概要: Architecture Matters: Investigating the Influence of Differential
Privacy on Neural Network Design
- arxiv url: http://arxiv.org/abs/2111.14924v1
- Date: Mon, 29 Nov 2021 20:01:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 08:08:06.044828
- Title: Architecture Matters: Investigating the Influence of Differential
Privacy on Neural Network Design
- Title(参考訳): アーキテクチャの問題: ニューラルネットワーク設計における差分プライバシーの影響を探る
- Authors: Felix Morsbach, Tobias Dehling, Ali Sunyaev
- Abstract要約: 微分プライベートニューラルネットワークをより広く採用する上での障壁の1つは、関連する精度損失である。
アーキテクチャ設計に関する既存の知識が、微分プライベートな設定にも当てはまるかどうかをテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One barrier to more widespread adoption of differentially private neural
networks is the entailed accuracy loss. To address this issue, the relationship
between neural network architectures and model accuracy under differential
privacy constraints needs to be better understood. As a first step, we test
whether extant knowledge on architecture design also holds in the
differentially private setting. Our findings show that it does not;
architectures that perform well without differential privacy, do not
necessarily do so with differential privacy. Consequently, extant knowledge on
neural network architecture design cannot be seamlessly translated into the
differential privacy context. Future research is required to better understand
the relationship between neural network architectures and model accuracy to
enable better architecture design choices under differential privacy
constraints.
- Abstract(参考訳): 微分プライベートニューラルネットワークをより広く採用する上での障壁の1つは、関連する精度損失である。
この問題に対処するためには、ニューラルネットワークアーキテクチャと差分プライバシー制約下でのモデル精度の関係をよりよく理解する必要がある。
最初のステップとして、アーキテクチャ設計に関する既存の知識が、微分プライベートな設定にも当てはまるかどうかをテストする。
差分プライバシなしでうまく機能するアーキテクチャは、必ずしも差分プライバシで機能するとは限らない。
したがって、ニューラルネットワークアーキテクチャ設計に関する既存の知識は、差分プライバシーコンテキストにシームレスに変換することはできない。
将来の研究は、ニューラルネットワークアーキテクチャとモデル精度の関係をよりよく理解し、差分プライバシー制約下でのアーキテクチャ設計選択の改善を可能にする必要がある。
関連論文リスト
- Unsupervised Graph Neural Architecture Search with Disentangled
Self-supervision [51.88848982611515]
教師なしグラフニューラルアーキテクチャサーチは、文献では未発見のままである。
本稿では,Distangled Self-supervised Graph Neural Architecture Searchモデルを提案する。
我々のモデルは、教師なしの方法で、いくつかのベースライン手法に対して最先端のパフォーマンスを達成することができる。
論文 参考訳(メタデータ) (2024-03-08T05:23:55Z) - On the Importance of Architecture and Feature Selection in
Differentially Private Machine Learning [2.387686431425822]
差分プライベート機械学習の典型的なワークフローにおける落とし穴について検討する。
差分的にプライベートな学習アルゴリズムを"ドロップイン"方式で使用すると、過度に複雑でパフォーマンスの悪いモデルが得られる。
論文 参考訳(メタデータ) (2022-05-13T15:57:34Z) - SmoothNets: Optimizing CNN architecture design for differentially
private deep learning [69.10072367807095]
DPSGDは、サンプルごとの勾配の切り抜きとノイズ付けを必要とする。
これにより、非プライベートトレーニングと比較してモデルユーティリティが削減される。
SmoothNetと呼ばれる新しいモデルアーキテクチャを蒸留し,DP-SGDトレーニングの課題に対するロバスト性の向上を特徴とした。
論文 参考訳(メタデータ) (2022-05-09T07:51:54Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - The Nonlinearity Coefficient -- A Practical Guide to Neural Architecture
Design [3.04585143845864]
我々は、アーキテクチャが比較的高いテストやトレーニング後のタスクのトレーニングエラーを達成できるかどうかを、トレーニングなしで予測できる手法を開発する。
その後、アーキテクチャ定義自体の観点でエラーを説明し、アーキテクチャを変更するツールを開発します。
最初の大きな貢献は、ニューラルネットワークアーキテクチャの'非線形性の度合い'がそのパフォーマンスの背後にある重要な因果的要因であることを示すことです。
論文 参考訳(メタデータ) (2021-05-25T20:47:43Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Adversarially Robust Neural Architectures [43.74185132684662]
本稿では,NASフレームワークを用いたアーキテクチャの観点から,ネットワークの対角的ロバスト性を改善することを目的とする。
本稿では, 対向ロバスト性, リプシッツ定数, アーキテクチャパラメータの関係について検討する。
提案アルゴリズムは,異なるデータセットに対する様々な攻撃の下で,すべてのモデルの中で最高の性能を実証的に達成する。
論文 参考訳(メタデータ) (2020-09-02T08:52:15Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - A Semi-Supervised Assessor of Neural Architectures [157.76189339451565]
我々は、ニューラルネットワークの有意義な表現を見つけるためにオートエンコーダを用いる。
アーキテクチャの性能を予測するために、グラフ畳み込みニューラルネットワークを導入する。
論文 参考訳(メタデータ) (2020-05-14T09:02:33Z) - Dataless Model Selection with the Deep Frame Potential [45.16941644841897]
ネットワークをその固有の能力で定量化し、ユニークでロバストな表現を行う。
本稿では,表現安定性にほぼ関係するが,ネットワーク構造にのみ依存する最小限のコヒーレンス尺度であるディープフレームポテンシャルを提案する。
モデル選択の基準としての利用を検証するとともに,ネットワークアーキテクチャの多種多様な残差および密結合化について,一般化誤差との相関性を示す。
論文 参考訳(メタデータ) (2020-03-30T23:27:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。