論文の概要: Privacy-Preserving Intrusion Detection using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2404.09625v1
- Date: Mon, 15 Apr 2024 09:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 12:50:12.943168
- Title: Privacy-Preserving Intrusion Detection using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いたプライバシー保護侵入検出
- Authors: Martin Kodys, Zhongmin Dai, Vrizlynn L. L. Thing,
- Abstract要約: 顧客のプライベートデータに対して分析サービスを提供するモデルオーナのユースケースについて検討する。
データに関する情報はアナリストに公開されず,モデルに関する情報は顧客にリークされない。
プライバシ保護技術を用いた畳み込みニューラルネットワークに基づく攻撃検知システムを構築した。
- 参考スコア(独自算出の注目度): 0.25163931116642785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy-preserving analytics is designed to protect valuable assets. A common service provision involves the input data from the client and the model on the analyst's side. The importance of the privacy preservation is fuelled by legal obligations and intellectual property concerns. We explore the use case of a model owner providing an analytic service on customer's private data. No information about the data shall be revealed to the analyst and no information about the model shall be leaked to the customer. Current methods involve costs: accuracy deterioration and computational complexity. The complexity, in turn, results in a longer processing time, increased requirement on computing resources, and involves data communication between the client and the server. In order to deploy such service architecture, we need to evaluate the optimal setting that fits the constraints. And that is what this paper addresses. In this work, we enhance an attack detection system based on Convolutional Neural Networks with privacy-preserving technology based on PriMIA framework that is initially designed for medical data.
- Abstract(参考訳): プライバシー保護分析は、貴重な資産を保護するように設計されている。
共通のサービス提供には、クライアントからの入力データとアナリスト側のモデルが含まれます。
プライバシー保護の重要性は、法的義務と知的財産権の懸念によって支えられている。
顧客のプライベートデータに対して分析サービスを提供するモデルオーナのユースケースについて検討する。
データに関する情報はアナリストに公開されず,モデルに関する情報は顧客にリークされない。
現在の手法には、精度の劣化と計算の複雑さといったコストが伴っている。
その結果、処理時間が長くなり、コンピューティングリソースに対する要求が増大し、クライアントとサーバ間のデータ通信が複雑になる。
このようなサービスアーキテクチャをデプロイするには、制約に適合する最適な設定を評価する必要があります。
そして、この論文はそれに対処する。
本研究では,当初医療データ用に設計されたPriMIAフレームワークに基づくプライバシ保護技術を用いて,畳み込みニューラルネットワークに基づく攻撃検出システムを強化する。
関連論文リスト
- PrIsing: Privacy-Preserving Peer Effect Estimation via Ising Model [3.4308998211298314]
我々は、個々のエージェントの結果のプライバシーを保護するために特別に設計された、新しい$(varepsilon,delta)$-differentially privateアルゴリズムを提案する。
提案アルゴリズムは,目的摂動手法を用いて,単一ネットワークを用いた自然パラメータの正確な推定を可能にする。
論文 参考訳(メタデータ) (2024-01-29T21:56:39Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Distributed data analytics [8.415530878975751]
レコメンデーションシステムは、オンラインサービスプロバイダの重要なコンポーネントである。
金融業界は不正検出、リスク管理、コンプライアンスなどの分野で大量のデータを活用するためにMLを採用している。
論文 参考訳(メタデータ) (2022-03-26T14:10:51Z) - Privacy-preserving machine learning with tensor networks [50.591267188664666]
テンソルネットワークアーキテクチャは、特にプライバシー保護機械学習に期待できる特性を持つことを示す。
まず、フィードフォワードニューラルネットワークに存在する新たなプライバシ脆弱性を説明し、それを合成および実世界のデータセットで説明する。
このような条件がテンソルネットワークアーキテクチャによって満たされていることを厳密に証明する。
論文 参考訳(メタデータ) (2022-02-24T19:04:35Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - System Design for a Data-driven and Explainable Customer Sentiment
Monitor [2.490457152391676]
IoTとエンタープライズデータを組み合わせて顧客感情をモデル化するデータ駆動型意思決定支援システムのためのフレームワークを提示する。
このフレームワークは、主要な医療機器メーカーとの実際のケーススタディに適用される。
論文 参考訳(メタデータ) (2021-01-11T18:29:50Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。