論文の概要: SONNI: Secure Oblivious Neural Network Inference
- arxiv url: http://arxiv.org/abs/2504.18974v1
- Date: Sat, 26 Apr 2025 17:23:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.072571
- Title: SONNI: Secure Oblivious Neural Network Inference
- Title(参考訳): SONNI: セキュアなニューラルネットワーク推論
- Authors: Luke Sperling, Sandeep S. Kulkarni,
- Abstract要約: 我々は、このプロトコルの弱点を特定し、完全に検出不可能な新しいモデルステアリング攻撃を可能にする。
この攻撃はマルチキー暗号化の下でも動作し、モデルパラメータを盗むための単純な共謀攻撃を防ぐ。
悪意のあるサーバや悪意のあるクライアント,あるいはモデルプロバイダが存在する場合でも,プライバシを保護する対策を提案する。
- 参考スコア(独自算出の注目度): 0.29494468099506893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the standard privacy-preserving Machine learning as-a-service (MLaaS) model, the client encrypts data using homomorphic encryption and uploads it to a server for computation. The result is then sent back to the client for decryption. It has become more and more common for the computation to be outsourced to third-party servers. In this paper we identify a weakness in this protocol that enables a completely undetectable novel model-stealing attack that we call the Silver Platter attack. This attack works even under multikey encryption that prevents a simple collusion attack to steal model parameters. We also propose a mitigation that protects privacy even in the presence of a malicious server and malicious client or model provider (majority dishonest). When compared to a state-of-the-art but small encrypted model with 32k parameters, we preserve privacy with a failure chance of 1.51 x 10^-28 while batching capability is reduced by 0.2%. Our approach uses a novel results-checking protocol that ensures the computation was performed correctly without violating honest clients' data privacy. Even with collusion between the client and the server, they are unable to steal model parameters. Additionally, the model provider cannot learn any client data if maliciously working with the server.
- Abstract(参考訳): 標準的なプライバシ保護機械学習・アズ・ア・サービス(MLaaS)モデルでは、クライアントは同型暗号化を使用してデータを暗号化し、計算のためにサーバにアップロードする。
結果がクライアントに送信され、復号化される。
計算がサードパーティのサーバにアウトソースされることは、ますます一般的になっている。
本稿では,本プロトコルの弱点を同定し,シルバープラッター攻撃(Silver Platter attack)と呼ぶ,全く検出不可能な新しいモデルステアリング攻撃を可能にする。
この攻撃はマルチキー暗号化の下でも動作し、モデルパラメータを盗むための単純な共謀攻撃を防ぐ。
また,悪意のあるサーバや悪意のあるクライアント,あるいはモデルプロバイダの存在下においても,プライバシを保護する対策を提案する。
最先端だが32kパラメータの小さな暗号化モデルと比較すると、バッチ処理能力が0.2%低下するのに対して、1.51 x 10^-28の失敗率でプライバシを保存することができる。
当社のアプローチでは,クライアントのデータプライバシを侵害することなく,計算が正しく実行されるような,新たな結果チェックプロトコルを採用しています。
クライアントとサーバの共謀であっても、モデルパラメータを盗むことはできない。
さらに、モデルプロバイダは、サーバと悪意のある作業を行う場合、クライアントデータを学習できません。
関連論文リスト
- Data Free Backdoor Attacks [83.10379074100453]
DFBAは、モデルアーキテクチャを変更することなく、リトレーニングフリーでデータフリーのバックドア攻撃である。
我々の注入されたバックドアは、様々な最先端の防御策によって、検出不可能で、検出不能であることを確認した。
複数のデータセットに対する評価では,1) 無視可能な分類損失,2) 攻撃成功率,3) 既存の6つの防御を回避している。
論文 参考訳(メタデータ) (2024-12-09T05:30:25Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - Love or Hate? Share or Split? Privacy-Preserving Training Using Split
Learning and Homomorphic Encryption [47.86010265348072]
Split Learning(SL)は、参加者がクライアントが生データを共有せずに機械学習モデルをトレーニングすることを可能にする、新たなコラボレーティブな学習テクニックである。
以前の研究は、アクティベーションマップの再構築がクライアントデータのプライバシー漏洩につながることを示した。
本稿では,U字型SLをベースとしたプロトコルを構築し,同義的に暗号化されたデータを操作することにより,従来の作業を改善する。
論文 参考訳(メタデータ) (2023-09-19T10:56:08Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - CrowdGuard: Federated Backdoor Detection in Federated Learning [39.58317527488534]
本稿では,フェデレートラーニングにおけるバックドア攻撃を効果的に軽減する新しい防御機構であるCrowdGuardを提案する。
CrowdGuardでは、サーバロケーションのスタック化されたクラスタリングスキームを使用して、クライアントからのフィードバックに対するレジリエンスを高めている。
評価結果は、CrowdGuardがさまざまなシナリオで100%正の正の正の正の負の負の負の値を達成することを示す。
論文 参考訳(メタデータ) (2022-10-14T11:27:49Z) - A New Implementation of Federated Learning for Privacy and Security
Enhancement [27.612480082254486]
フェデレーテッド・ラーニング(FL)は、新しい機械学習・セッティングとして登場した。
ローカルデータを共有する必要はなく、プライバシを十分に保護することができる。
本稿では,ビザンチン攻撃に対するモデル更新に基づくフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-03T03:13:19Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - Fidel: Reconstructing Private Training Samples from Weight Updates in
Federated Learning [0.0]
フェデレーション学習における新しい攻撃手法を評価し,第1次ディセンス層攻撃(Fidel)と名付けた。
完全接続されたニューラルネットワークを用いて、クライアントのモデル更新から30個のプライベートデータサンプルのうち20個を平均して復元する方法を示す。
論文 参考訳(メタデータ) (2021-01-01T04:00:23Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。