論文の概要: Membership-Mappings for Practical Secure Distributed Deep Learning
- arxiv url: http://arxiv.org/abs/2204.05765v1
- Date: Tue, 12 Apr 2022 12:55:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-13 18:25:16.289331
- Title: Membership-Mappings for Practical Secure Distributed Deep Learning
- Title(参考訳): セキュアな分散ディープラーニングのためのメンバシップマッピング
- Authors: Mohit Kumar, Weiping Zhang, Lukas Fischer, and Bernhard Freudenthaler
- Abstract要約: ファジィ属性は、局所的な深部モデルに基づいて、大域的に収束し、頑健なメンバーシップ・マッピングによって誘導される。
提案手法は,分散学習シナリオにおけるプライバシ保護の一方で,正確で実用的でスケーラブルである。
- 参考スコア(独自算出の注目度): 4.7544905992452176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study leverages the data representation capability of fuzzy based
membership-mappings for practical secure distributed deep learning using fully
homomorphic encryption. The impracticality issue of secure machine (deep)
learning with fully homomorphic encrypted data, arising from large
computational overhead, is addressed via applying fuzzy attributes. Fuzzy
attributes are induced by globally convergent and robust variational
membership-mappings based local deep models. Fuzzy attributes combine the local
deep models in a robust and flexible manner such that the global model can be
evaluated homomorphically in an efficient manner using a boolean circuit
composed of bootstrapped binary gates. The proposed method, while preserving
privacy in a distributed learning scenario, remains accurate, practical, and
scalable. The method is evaluated through numerous experiments including
demonstrations through MNIST dataset and Freiburg Groceries Dataset. Further, a
biomedical application related to mental stress detection on individuals is
considered.
- Abstract(参考訳): 本研究では,完全準同型暗号を用いたセキュアな分散深層学習のために,ファジィベースメンバシップマップのデータ表現能力を活用する。
完全同型暗号化データを用いたセキュアマシン(ディープ)学習の非現実性問題は, ファジィ属性の適用により, 計算オーバーヘッドが大きいことに起因する。
ファジィ属性は、グローバルに収束し、ロバストなメンバーシップマップベースのローカルディープモデルによって引き起こされる。
ファジィ属性は局所的な深層モデルを堅牢で柔軟な方法で結合し、ブートストラップされたバイナリゲートからなるブール回路を用いて、グローバルモデルを効率的に準同型に評価できる。
提案手法は,分散学習シナリオにおいてプライバシを保ちながら,正確かつ実用的でスケーラブルなままである。
この方法はmnistデータセットとfreiburg groceriesデータセットによるデモンストレーションを含む多数の実験を通じて評価される。
さらに、個人に対する精神的ストレス検出に関する生体医学的応用を検討する。
関連論文リスト
- Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Variational Self-Supervised Contrastive Learning Using Beta Divergence
For Face Understanding [0.0]
本稿では,データノイズに対して頑健な自己教師付き学習手法を提案する。
顔理解領域における多ラベルデータセットを用いた線形評価と微調整シナリオを含む厳密な実験により,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-05T17:21:38Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Smoothed Embeddings for Certified Few-Shot Learning [63.68667303948808]
我々はランダムな平滑化を数ショットの学習モデルに拡張し、入力を正規化された埋め込みにマッピングする。
この結果は、異なるデータセットの実験によって確認される。
論文 参考訳(メタデータ) (2022-02-02T18:19:04Z) - Secure Neuroimaging Analysis using Federated Learning with Homomorphic
Encryption [14.269757725951882]
フェデレートラーニング(FL)は、異なるリモートデータソース上の機械学習モデルの分散計算を可能にする。
最近のメンバーシップ攻撃は、モデルパラメータや要約統計が中央サイトと共有されているときに、個人的または機密性の高い個人情報が漏洩したり、推測されることがあることを示している。
完全同相暗号(FHE)を用いたセキュアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-07T12:15:52Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Weight Divergence Driven Divide-and-Conquer Approach for Optimal
Federated Learning from non-IID Data [0.0]
Federated Learningは、トレーニングデータを集中化することなく、分散デバイスに格納されたデータのトレーニングを可能にする。
本稿では,一般的なFedAvgアグリゲーションアルゴリズムの活用を可能にする,新しいDivide-and-Conquerトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-06-28T09:34:20Z) - Data-Driven Assessment of Deep Neural Networks with Random Input
Uncertainty [14.191310794366075]
我々は,ネットワーク出力の安全性を同時に証明し,ローカライズ可能なデータ駆動最適化手法を開発した。
深部ReLUネットワークにおける提案手法の有効性とトラクタビリティを実験的に実証した。
論文 参考訳(メタデータ) (2020-10-02T19:13:35Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。