論文の概要: Amalgam: A Framework for Obfuscated Neural Network Training on the Cloud
- arxiv url: http://arxiv.org/abs/2406.03405v2
- Date: Mon, 28 Oct 2024 15:39:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:14:14.210832
- Title: Amalgam: A Framework for Obfuscated Neural Network Training on the Cloud
- Title(参考訳): Amalgam: クラウド上の難読ニューラルネットワークトレーニングフレームワーク
- Authors: Sifat Ut Taki, Spyridon Mastorakis,
- Abstract要約: 独自のニューラルネットワーク(NN)モデルをクラウド上にプロプライエタリなデータセットでトレーニングすることは、モデルアーキテクチャとデータセットをクラウドサービスプロバイダに公開するリスクを伴う。
我々は,既存のクラウド環境において,NNモデルをプライバシ保護的にトレーニングするためのNN難読化フレームワークであるAmalgamを提案する。
- 参考スコア(独自算出の注目度): 2.0257616108612373
- License:
- Abstract: Training a proprietary Neural Network (NN) model with a proprietary dataset on the cloud comes at the risk of exposing the model architecture and the dataset to the cloud service provider. To tackle this problem, in this paper, we present an NN obfuscation framework, called Amalgam, to train NN models in a privacy-preserving manner in existing cloud-based environments. Amalgam achieves that by augmenting NN models and the datasets to be used for training with well-calibrated noise to "hide" both the original model architectures and training datasets from the cloud. After training, Amalgam extracts the original models from the augmented models and returns them to users. Our evaluation results with different computer vision and natural language processing models and datasets demonstrate that Amalgam: (i) introduces modest overheads into the training process without impacting its correctness, and (ii) does not affect the model's accuracy. The prototype implementation is available at: https://github.com/SifatTaj/amalgam
- Abstract(参考訳): 独自のニューラルネットワーク(NN)モデルをクラウド上にプロプライエタリなデータセットでトレーニングすることは、モデルアーキテクチャとデータセットをクラウドサービスプロバイダに公開するリスクを伴う。
本稿では,既存のクラウド環境において,NNモデルをプライバシ保護的にトレーニングするためのNN難読化フレームワークであるAmalgamを提案する。
Amalgamは、元のモデルアーキテクチャとクラウドからのトレーニングデータセットの両方を"隠蔽"するために、よく校正されたノイズでトレーニングするために使用されるNNモデルとデータセットを増設することで、実現している。
トレーニング後、Amalgamは拡張モデルからオリジナルのモデルを抽出し、ユーザに返却する。
異なるコンピュータビジョンと自然言語処理モデルとデータセットによる評価結果は、Amalgamが示す。
二 その正しさを損なうことなく、訓練工程に緩やかなオーバーヘッドを導入すること
(ii)モデルの精度には影響しない。
プロトタイプの実装は、https://github.com/SifatTaj/amalgam.comで公開されている。
関連論文リスト
- Neural Metamorphosis [72.88137795439407]
本稿では,ニューラル・メタモルファス(NeuMeta)と呼ばれる,自己変形可能なニューラルネットワークの構築を目的とした新たな学習パラダイムを提案する。
NeuMetaはニューラルネットワークの連続重み多様体を直接学習する。
75%の圧縮速度でもフルサイズの性能を維持する。
論文 参考訳(メタデータ) (2024-10-10T14:49:58Z) - Enhancing Robustness to Noise Corruption for Point Cloud Model via Spatial Sorting and Set-Mixing Aggregation Module [17.588975042641007]
本研究では,個々の雑音点の影響を緩和するノイズロバストアグリゲーションモジュール,Set-Mixerを提案する。
ModelNet40-Cで行った実験によると、Set-Mixerはノイズの多い点のクラウド上でのモデル性能を大幅に向上する。
論文 参考訳(メタデータ) (2024-07-15T15:21:34Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Privacy-Preserving Ensemble Infused Enhanced Deep Neural Network
Framework for Edge Cloud Convergence [18.570317928688606]
本稿では,プライバシー保護のための深層ニューラルネットワーク(DNN)に基づく学習フレームワークを提案する。
収束において、エッジサーバは、IoT生成されたバイオイメージの保存と、ローカルモデルのトレーニングのためのホスティングアルゴリズムの両方に使用される。
提案するフレームワークの性能を評価するために,いくつかの実験を行った。
論文 参考訳(メタデータ) (2023-05-16T07:01:44Z) - NCTV: Neural Clamping Toolkit and Visualization for Neural Network
Calibration [66.22668336495175]
ニューラルネットワークのキャリブレーションに対する考慮の欠如は、人間から信頼を得ることはないだろう。
我々はNeural Clamping Toolkitを紹介した。これは開発者が最先端のモデルに依存しないキャリブレーションモデルを採用するのを支援するために設計された最初のオープンソースフレームワークである。
論文 参考訳(メタデータ) (2022-11-29T15:03:05Z) - An Adversarial Active Sampling-based Data Augmentation Framework for
Manufacturable Chip Design [55.62660894625669]
リソグラフィーモデリングは、チップ設計マスクが製造可能であることを保証するため、チップ設計において重要な問題である。
機械学習の最近の進歩は、時間を要するリソグラフィーシミュレーションをディープニューラルネットワークに置き換えるための代替ソリューションを提供している。
本稿では,限られたデータのジレンマを解消し,機械学習モデルの性能を向上させるために,データ拡張フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-27T20:53:39Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Towards Learning a Vocabulary of Visual Concepts and Operators using
Deep Neural Networks [0.0]
我々は、MNIST画像を用いて訓練されたモデルの学習された特徴マップを分析し、より説明可能な予測を行う。
MNIST画像を用いて学習した変分オートエンコーダから視覚概念を生成する。
再建損失(平均2乗誤差)を初期値120から60に減らすことができた。
論文 参考訳(メタデータ) (2021-09-01T16:34:57Z) - The World as a Graph: Improving El Ni\~no Forecasts with Graph Neural
Networks [0.00916150060695978]
季節予測へのグラフニューラルネットワークの最初の応用を提案する。
当社のモデルであるGraphinoは、最先端のディープラーニングベースのモデルで最大6ヶ月の予測を上回ります。
論文 参考訳(メタデータ) (2021-04-11T19:55:55Z) - Modeling Token-level Uncertainty to Learn Unknown Concepts in SLU via
Calibrated Dirichlet Prior RNN [98.4713940310056]
現代パーソナルアシスタントにおける音声言語理解(SLU)の主な課題は、発話から意味概念を抽出することである。
最近の研究では、疑問と回答を収集し、未知のデータを学習し、質問すべきである。
疑わしい監督なしにシーケンスの不確かさをモデル化するために、ソフトマックスベースのスロット充填ニューラルネットワークアーキテクチャを組み込んだ。
論文 参考訳(メタデータ) (2020-10-16T02:12:30Z) - STAN: Synthetic Network Traffic Generation with Generative Neural Models [10.54843182184416]
本稿では,現実的な合成ネットワークトラフィックデータセットを生成するためのSTAN(Synthetic Network Traffic Generation with Autoregressive Neural Model)を提案する。
私たちの新しいニューラルアーキテクチャは、常に属性間の時間的依存関係と依存の両方をキャプチャします。
我々は、シミュレーションデータセットと実ネットワークトラフィックデータセットの両方で、STANの性能を、データの品質の観点から評価する。
論文 参考訳(メタデータ) (2020-09-27T04:20:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。