論文の概要: Partially Oblivious Neural Network Inference
- arxiv url: http://arxiv.org/abs/2210.15189v1
- Date: Thu, 27 Oct 2022 05:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 15:50:36.473390
- Title: Partially Oblivious Neural Network Inference
- Title(参考訳): 部分的なニューラルネットワーク推論
- Authors: Panagiotis Rizomiliotis, Christos Diou, Aikaterini Triakosia, Ilias
Kyrannas and Konstantinos Tserpes
- Abstract要約: CNNのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容可能であることを示す。
我々は,CIFAR-10ネットワークにおいて,モデル重量の最大80%を,事実上のセキュリティ上の影響なく漏洩させることができることを実験的に実証した。
- 参考スコア(独自算出の注目度): 4.843820624525483
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Oblivious inference is the task of outsourcing a ML model, like
neural-networks, without disclosing critical and sensitive information, like
the model's parameters. One of the most prominent solutions for secure
oblivious inference is based on a powerful cryptographic tools, like
Homomorphic Encryption (HE) and/or multi-party computation (MPC). Even though
the implementation of oblivious inference systems schemes has impressively
improved the last decade, there are still significant limitations on the ML
models that they can practically implement. Especially when both the ML model
and the input data's confidentiality must be protected. In this paper, we
introduce the notion of partially oblivious inference. We empirically show that
for neural network models, like CNNs, some information leakage can be
acceptable. We therefore propose a novel trade-off between security and
efficiency. In our research, we investigate the impact on security and
inference runtime performance from the CNN model's weights partial leakage. We
experimentally demonstrate that in a CIFAR-10 network we can leak up to $80\%$
of the model's weights with practically no security impact, while the necessary
HE-mutliplications are performed four times faster.
- Abstract(参考訳): 曖昧な推論は、ニューラルネットワークのようなMLモデルをアウトソーシングする作業であり、モデルのパラメータのような重要で機密性の高い情報を開示しない。
安全な暗黙の推論のための最も顕著なソリューションの1つは、ホモモルフィック暗号化(HE)やマルチパーティ計算(MPC)のような強力な暗号化ツールに基づいている。
暗黙の推論システムの実装は、過去10年間に著しく改善されてきたが、実際に実装できるMLモデルには、依然として大きな制限がある。
特に、MLモデルと入力データの機密性の両方を保護する必要がある。
本稿では,部分的に不可避な推論の概念を紹介する。
cnnのようなニューラルネットワークモデルでは、いくつかの情報漏洩が許容できることを示す。
そこで我々は,セキュリティと効率の新たなトレードオフを提案する。
本研究では,CNNモデルの重み部分リークによるセキュリティおよび推論実行時の性能への影響について検討する。
実験では,cifar-10ネットワークにおいて,モデルの重みの最大80~%を,実質的にセキュリティへの影響を伴わずにリークできることを実証し,必要なhe-mutliplicationは4倍高速に実施できることを示した。
関連論文リスト
- NeuroPlug: Plugging Side-Channel Leaks in NPUs using Space Filling Curves [0.4143603294943439]
全ての公表された対策(CM)は、信号XにノイズNを付加する。
本研究では,このノイズを,対象の計測値,統計的解析値,様々な種類の推定側情報を用いて除去することが容易であることを示す。
我々はこれらの攻撃手法に免疫を持つ新しいCM NeuroPlugを提案する。
論文 参考訳(メタデータ) (2024-07-18T10:40:41Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Co(ve)rtex: ML Models as storage channels and their (mis-)applications [2.792027541710663]
機械学習システムでは、不注意な状態と未定義の振る舞いが重大な脆弱性の原因であることが示されている。
MLモデルは,パラメータ化の超過に伴って増大するキャパシティを持つストレージチャネルであると考えている。
本稿では,ML固有の置換に基づく誤り訂正プロトコルを含む,このケースにおけるキャパシティ向上のための最適化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T19:57:10Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。