論文の概要: DiPSeN: Differentially Private Self-normalizing Neural Networks For
Adversarial Robustness in Federated Learning
- arxiv url: http://arxiv.org/abs/2101.03218v1
- Date: Fri, 8 Jan 2021 20:49:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-10 07:03:52.122488
- Title: DiPSeN: Differentially Private Self-normalizing Neural Networks For
Adversarial Robustness in Federated Learning
- Title(参考訳): DiPSeN: フェデレートラーニングにおける対向ロバスト性のための微分プライベート自己正規化ニューラルネットワーク
- Authors: Olakunle Ibitoye, M. Omair Shafiq, Ashraf Matrawy
- Abstract要約: フェデレーション学習は、プライバシー侵害や情報の漏洩から保護するのに役立ちます。
機械学習モデルを敵のサンプルから防御することがより困難にする新しいリスクベクターを導入している。
DiPSeNは、差分プライバシーノイズの要素と自己正規化技術を組み合わせた差分プライベート自己正規化ニューラルネットワークです。
- 参考スコア(独自算出の注目度): 6.1448102196124195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The need for robust, secure and private machine learning is an important goal
for realizing the full potential of the Internet of Things (IoT). Federated
learning has proven to help protect against privacy violations and information
leakage. However, it introduces new risk vectors which make machine learning
models more difficult to defend against adversarial samples. In this study, we
examine the role of differential privacy and self-normalization in mitigating
the risk of adversarial samples specifically in a federated learning
environment. We introduce DiPSeN, a Differentially Private Self-normalizing
Neural Network which combines elements of differential privacy noise with
self-normalizing techniques. Our empirical results on three publicly available
datasets show that DiPSeN successfully improves the adversarial robustness of a
deep learning classifier in a federated learning environment based on several
evaluation metrics.
- Abstract(参考訳): 堅牢でセキュアでプライベートな機械学習の必要性は、IoT(Internet of Things)の潜在能力を実現する上で重要な目標である。
フェデレーション学習は、プライバシー侵害や情報漏洩を防ぐのに役立つことが証明されている。
しかし、機械学習モデルを敵のサンプルに対して防御することがより難しくする新しいリスクベクトルを導入している。
本研究では,差分プライバシと自己正規化が,特にフェデレート学習環境における対立サンプルのリスク軽減に果たす役割について検討した。
本稿では、差分プライバシーノイズの要素と自己正規化技術を組み合わせた微分プライベート自己正規化ニューラルネットワークであるDiPSeNを紹介する。
3つの公開データセットに対する実験結果から、DiPSeNは、複数の評価指標に基づいて、深層学習環境における深層学習分類器の対角的堅牢性を改善することができた。
関連論文リスト
- Differential Privacy Mechanisms in Neural Tangent Kernel Regression [29.187250620950927]
ニューラルタンジェントカーネル(NTK)回帰設定における差分プライバシー(DP)について検討する。
NTKレグレッションの差分プライバシとテスト精度の両面で証明可能な保証を示す。
我々の知る限り、NTKレグレッションに対するDP保証を提供する最初の取り組みである。
論文 参考訳(メタデータ) (2024-07-18T15:57:55Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - Information Stealing in Federated Learning Systems Based on Generative
Adversarial Networks [0.5156484100374059]
我々は,3つの異なるデータセットを用いて,連邦学習環境(FL)に敵対的攻撃を仕掛けた。
この攻撃は、GAN(Generative Adversarial Network)を利用して学習プロセスに影響を及ぼした。
対象者の実際のデータを,すべての適用データセットを用いて共有グローバルモデルパラメータから再構成した。
論文 参考訳(メタデータ) (2021-08-02T08:12:43Z) - NeuralDP Differentially private neural networks by design [61.675604648670095]
ニューラルネットワーク内のいくつかの層の活性化を民営化する手法であるNeuralDPを提案する。
本研究では,DP-SGDと比較して,プライバシーとユーティリティのトレードオフを大幅に改善した2つのデータセットを実験的に検証した。
論文 参考訳(メタデータ) (2021-07-30T12:40:19Z) - On Deep Learning with Label Differential Privacy [54.45348348861426]
ラベルは機密性があり、保護されるべきであるとするマルチクラス分類について検討する。
本稿では,ラベル差分プライバシを用いたディープニューラルネットワークのトレーニングアルゴリズムを提案し,いくつかのデータセットで評価を行う。
論文 参考訳(メタデータ) (2021-02-11T15:09:06Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Attribute-Guided Adversarial Training for Robustness to Natural
Perturbations [64.35805267250682]
本稿では,属性空間への分類器の露出を最大化するために,新しいサンプルを生成することを学習する逆学習手法を提案する。
我々のアプローチは、ディープニューラルネットワークが自然に発生する摂動に対して堅牢であることを可能にする。
論文 参考訳(メタデータ) (2020-12-03T10:17:30Z) - Differentially private cross-silo federated learning [16.38610531397378]
厳密なプライバシは、分散機械学習において最重要事項である。
本稿では,いわゆるクロスサイロ・フェデレーション・ラーニング・セッティングにおいて,加算準同型セキュア和プロトコルと差分プライバシーを併用する。
提案手法により,非分散設定に匹敵する予測精度が得られることを示す。
論文 参考訳(メタデータ) (2020-07-10T18:15:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。