論文の概要: Improving the Algorithm of Deep Learning with Differential Privacy
- arxiv url: http://arxiv.org/abs/2107.05457v1
- Date: Mon, 12 Jul 2021 14:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-13 16:15:03.690199
- Title: Improving the Algorithm of Deep Learning with Differential Privacy
- Title(参考訳): 差分プライバシーによるディープラーニングのアルゴリズムの改善
- Authors: Mehdi Amian
- Abstract要約: 深層学習モデルに対するDPSGDアルゴリズムの最適化を提案する。
このアイデアは自然で解釈可能であり、最先端技術に関する実用性の向上に貢献している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, an adjustment to the original differentially private
stochastic gradient descent (DPSGD) algorithm for deep learning models is
proposed. As a matter of motivation, to date, almost no state-of-the-art
machine learning algorithm hires the existing privacy protecting components due
to otherwise serious compromise in their utility despite the vital necessity.
The idea in this study is natural and interpretable, contributing to improve
the utility with respect to the state-of-the-art. Another property of the
proposed technique is its simplicity which makes it again more natural and also
more appropriate for real world and specially commercial applications. The
intuition is to trim and balance out wild individual discrepancies for privacy
reasons, and at the same time, to preserve relative individual differences for
seeking performance. The idea proposed here can also be applied to the
recurrent neural networks (RNN) to solve the gradient exploding problem. The
algorithm is applied to benchmark datasets MNIST and CIFAR-10 for a
classification task and the utility measure is calculated. The results
outperformed the original work.
- Abstract(参考訳): 本稿では,深層学習モデルに対する微分プライベート確率勾配勾配(DPSGD)アルゴリズムの調整を提案する。
モチベーションの問題として、現在最先端の機械学習アルゴリズムが既存のプライバシ保護コンポーネントを採用しているところはほとんどない。
この研究の考え方は自然で解釈可能であり、最先端技術における実用性の向上に寄与する。
提案手法のもう一つの特性は、より自然で、また現実世界や特に商業用途にも適している、単純さである。
その直感は、プライバシー上の理由から、野生の個人の不一致を減らしバランスをとることであり、同時に、パフォーマンスを求めるための相対的な個人差を維持することである。
ここで提案するアイデアは、勾配爆発問題を解決するためにrecurrent neural networks (rnn)にも適用することができる。
このアルゴリズムは分類タスクのベンチマークデータセットMNISTとCIFAR-10に適用され、実用性尺度が算出される。
結果はオリジナル作品より優れていた。
関連論文リスト
- Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Forward-Forward Algorithm for Hyperspectral Image Classification: A
Preliminary Study [0.0]
フォワードフォワードアルゴリズム(FFA)は、ネットワークパラメータを最適化するために局所良性関数を計算する。
本研究では,FFAのハイパースペクトル画像分類への応用について検討した。
論文 参考訳(メタデータ) (2023-07-01T05:39:28Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Differentially Private Learning with Per-Sample Adaptive Clipping [8.401653565794353]
非単調適応重み関数に基づくDP-PSACアルゴリズムを提案する。
DP-PSACは,複数のメインストリームビジョンや言語タスクにおいて,最先端の手法よりも優れ,あるいは適合していることを示す。
論文 参考訳(メタデータ) (2022-12-01T07:26:49Z) - Stochastic Differentially Private and Fair Learning [7.971065005161566]
我々は、収束することが保証されるフェアラーニングのための最初の微分プライベートアルゴリズムを提供する。
われわれのフレームワークは、人口格差や均等化オッズなど、さまざまな公平さを許容できるほど柔軟である。
本アルゴリズムは,複数の(非バイナリ)機密属性を持つ非バイナリ分類タスクに適用可能である。
論文 参考訳(メタデータ) (2022-10-17T06:54:57Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Differentially Private Stochastic Gradient Descent with Low-Noise [49.981789906200035]
現代の機械学習アルゴリズムは、データからきめ細かい情報を抽出して正確な予測を提供することを目的としており、プライバシー保護の目標と矛盾することが多い。
本稿では、プライバシを保ちながら優れたパフォーマンスを確保するために、プライバシを保存する機械学習アルゴリズムを開発することの実践的および理論的重要性について論じる。
論文 参考訳(メタデータ) (2022-09-09T08:54:13Z) - Tempered Sigmoid Activations for Deep Learning with Differential Privacy [33.574715000662316]
活性化関数の選択は、プライバシー保護の深層学習の感度を束縛することの中心であることを示す。
我々は,MNIST,FashionMNIST,CIFAR10に対して,学習手順の基礎を変更することなく,新たな最先端の精度を実現する。
論文 参考訳(メタデータ) (2020-07-28T13:19:45Z) - Meta-Gradient Reinforcement Learning with an Objective Discovered Online [54.15180335046361]
本稿では,深層ニューラルネットワークによって柔軟にパラメータ化される,自己目的のメタ段階的降下に基づくアルゴリズムを提案する。
目的はオンラインで発見されるため、時間とともに変化に適応することができる。
Atari Learning Environmentでは、メタグラディエントアルゴリズムが時間とともに適応して、より効率よく学習する。
論文 参考訳(メタデータ) (2020-07-16T16:17:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。