論文の概要: Privacy-Preserving Intrusion Detection using Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2404.09625v1
- Date: Mon, 15 Apr 2024 09:56:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 12:50:12.943168
- Title: Privacy-Preserving Intrusion Detection using Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークを用いたプライバシー保護侵入検出
- Authors: Martin Kodys, Zhongmin Dai, Vrizlynn L. L. Thing,
- Abstract要約: 顧客のプライベートデータに対して分析サービスを提供するモデルオーナのユースケースについて検討する。
データに関する情報はアナリストに公開されず,モデルに関する情報は顧客にリークされない。
プライバシ保護技術を用いた畳み込みニューラルネットワークに基づく攻撃検知システムを構築した。
- 参考スコア(独自算出の注目度): 0.25163931116642785
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Privacy-preserving analytics is designed to protect valuable assets. A common service provision involves the input data from the client and the model on the analyst's side. The importance of the privacy preservation is fuelled by legal obligations and intellectual property concerns. We explore the use case of a model owner providing an analytic service on customer's private data. No information about the data shall be revealed to the analyst and no information about the model shall be leaked to the customer. Current methods involve costs: accuracy deterioration and computational complexity. The complexity, in turn, results in a longer processing time, increased requirement on computing resources, and involves data communication between the client and the server. In order to deploy such service architecture, we need to evaluate the optimal setting that fits the constraints. And that is what this paper addresses. In this work, we enhance an attack detection system based on Convolutional Neural Networks with privacy-preserving technology based on PriMIA framework that is initially designed for medical data.
- Abstract(参考訳): プライバシー保護分析は、貴重な資産を保護するように設計されている。
共通のサービス提供には、クライアントからの入力データとアナリスト側のモデルが含まれます。
プライバシー保護の重要性は、法的義務と知的財産権の懸念によって支えられている。
顧客のプライベートデータに対して分析サービスを提供するモデルオーナのユースケースについて検討する。
データに関する情報はアナリストに公開されず,モデルに関する情報は顧客にリークされない。
現在の手法には、精度の劣化と計算の複雑さといったコストが伴っている。
その結果、処理時間が長くなり、コンピューティングリソースに対する要求が増大し、クライアントとサーバ間のデータ通信が複雑になる。
このようなサービスアーキテクチャをデプロイするには、制約に適合する最適な設定を評価する必要があります。
そして、この論文はそれに対処する。
本研究では,当初医療データ用に設計されたPriMIAフレームワークに基づくプライバシ保護技術を用いて,畳み込みニューラルネットワークに基づく攻撃検出システムを強化する。
関連論文リスト
- Privacy-Preserving Verifiable Neural Network Inference Service [4.131956503199438]
我々は,クライアントデータサンプルのプライバシを保存するために,プライバシ保護と検証が可能なCNN推論手法を開発した。
vPINは、クライアントデータのプライバシ保証と証明可能な検証性を提供しながら、証明サイズの観点から高い効率を達成する。
論文 参考訳(メタデータ) (2024-11-12T01:09:52Z) - Using Synthetic Data to Mitigate Unfairness and Preserve Privacy through Single-Shot Federated Learning [6.516872951510096]
本稿では,クライアントとサーバ間で情報を渡すことなく,クライアント間の公正な予測を促進する戦略を提案する。
次に、各クライアントの合成データセットをサーバに渡します。
論文 参考訳(メタデータ) (2024-09-14T21:04:11Z) - Initialization Matters: Privacy-Utility Analysis of Overparameterized
Neural Networks [72.51255282371805]
我々は、最悪の近傍データセット上でのモデル分布間のKLばらつきのプライバシー境界を証明した。
このKLプライバシー境界は、トレーニング中にモデルパラメータに対して期待される2乗勾配ノルムによって決定される。
論文 参考訳(メタデータ) (2023-10-31T16:13:22Z) - Privacy-Preserving Graph Machine Learning from Data to Computation: A
Survey [67.7834898542701]
我々は,グラフ機械学習のプライバシ保護手法の見直しに重点を置いている。
まずプライバシ保護グラフデータを生成する方法を検討する。
次に,プライバシ保護情報を送信する方法について述べる。
論文 参考訳(メタデータ) (2023-07-10T04:30:23Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z) - Distributed data analytics [8.415530878975751]
レコメンデーションシステムは、オンラインサービスプロバイダの重要なコンポーネントである。
金融業界は不正検出、リスク管理、コンプライアンスなどの分野で大量のデータを活用するためにMLを採用している。
論文 参考訳(メタデータ) (2022-03-26T14:10:51Z) - Sensitivity analysis in differentially private machine learning using
hybrid automatic differentiation [54.88777449903538]
感性分析のための新しいテクスチブリド自動識別システム(AD)を導入する。
これにより、ニューラルネットワークをプライベートデータ上でトレーニングするなど、任意の微分可能な関数合成の感度をモデル化できる。
当社のアプローチは,データ処理の設定において,プライバシ損失に関する原則的推論を可能にする。
論文 参考訳(メタデータ) (2021-07-09T07:19:23Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Differentially Private Secure Multi-Party Computation for Federated
Learning in Financial Applications [5.50791468454604]
フェデレートラーニングにより、信頼されたサーバで作業する多くのクライアントが、共有機械学習モデルを共同で学習することが可能になる。
これにより機密データを露出するリスクが軽減されるが、通信されたモデルパラメータからクライアントのプライベートデータセットに関する情報をリバースすることが可能になる。
筆者らは,非専門的な聴衆にプライバシ保存型フェデレーション学習プロトコルを提示し,実世界のクレジットカード詐欺データセットにロジスティック回帰を用いてそれを実証し,オープンソースシミュレーションプラットフォームを用いて評価する。
論文 参考訳(メタデータ) (2020-10-12T17:16:27Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z) - A Privacy-Preserving Distributed Architecture for
Deep-Learning-as-a-Service [68.84245063902908]
本稿では,ディープラーニング・アズ・ア・サービスのための分散アーキテクチャを提案する。
クラウドベースのマシンとディープラーニングサービスを提供しながら、ユーザの機密データを保存できる。
論文 参考訳(メタデータ) (2020-03-30T15:12:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。