論文の概要: On the Importance of Encrypting Deep Features
- arxiv url: http://arxiv.org/abs/2108.07147v1
- Date: Mon, 16 Aug 2021 15:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 14:58:43.921308
- Title: On the Importance of Encrypting Deep Features
- Title(参考訳): 深部機能の暗号化の重要性について
- Authors: Xingyang Ni, Heikki Huttunen, Esa Rahtu
- Abstract要約: ユーザデータの特徴ベクトルが知られ、推論のためのブラックボックスAPIが提供される。
個人再識別における最先端モデルの実験を行い,2つの攻撃シナリオ(補助属性の認識とユーザデータの再構築)について検討した。
その結果、厳しい制約下であっても、敵は機密情報を推測することに成功した。
- 参考スコア(独自算出の注目度): 15.340540198612823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we analyze model inversion attacks with only two assumptions:
feature vectors of user data are known, and a black-box API for inference is
provided. On the one hand, limitations of existing studies are addressed by
opting for a more practical setting. Experiments have been conducted on
state-of-the-art models in person re-identification, and two attack scenarios
(i.e., recognizing auxiliary attributes and reconstructing user data) are
investigated. Results show that an adversary could successfully infer sensitive
information even under severe constraints. On the other hand, it is advisable
to encrypt feature vectors, especially for a machine learning model in
production. As an alternative to traditional encryption methods such as AES, a
simple yet effective method termed ShuffleBits is presented. More specifically,
the binary sequence of each floating-point number gets shuffled. Deployed using
the one-time pad scheme, it serves as a plug-and-play module that is applicable
to any neural network, and the resulting model directly outputs deep features
in encrypted form. Source code is publicly available at
https://github.com/nixingyang/ShuffleBits.
- Abstract(参考訳): 本研究では,ユーザデータの特徴ベクトルが既知の仮定と,推論のためのブラックボックスAPIの2つの仮定でモデル反転攻撃を解析する。
一方、既存の研究の限界は、より実践的な設定を選択することで解決される。
個人再識別における最先端モデルの実験を行い,2つの攻撃シナリオ(補助属性の認識とユーザデータの再構築)について検討した。
その結果、敵は厳しい制約下でも敏感な情報を推測することに成功した。
一方、特に本番環境での機械学習モデルでは、特徴ベクトルを暗号化することが推奨される。
AESのような従来の暗号化手法の代替として、ShuffleBitsと呼ばれるシンプルだが効果的な方法が提示される。
具体的には、各浮動小数点数のバイナリシーケンスがシャッフルされる。
ワンタイムパッドスキームを使用してデプロイされ、任意のニューラルネットワークに適用可能なプラグイン・アンド・プレイモジュールとして機能し、結果として生成されたモデルは暗号化形式で深い機能を直接出力する。
ソースコードはhttps://github.com/nixingyang/shufflebitsで公開されている。
関連論文リスト
- FLUE: Federated Learning with Un-Encrypted model weights [0.0]
フェデレートされた学習により、デバイスは、ローカルに保存されたトレーニングデータを保持しながら、共有モデルを協調的にトレーニングすることができる。
最近の研究では、トレーニング中に暗号化されたモデルパラメータを使うことが強調されている。
本稿では,符号化された局所勾配を暗号化なしで活用する,新しいフェデレーション学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-26T14:04:57Z) - Fact Checking Beyond Training Set [64.88575826304024]
本稿では,レトリバーリーダが,あるドメインのラベル付きデータに基づいてトレーニングし,別のドメインで使用する場合,性能劣化に悩まされることを示す。
本稿では,レトリバー成分を分散シフトに対して頑健にするための逆アルゴリズムを提案する。
次に、これらのデータセットから8つの事実チェックシナリオを構築し、モデルと強力なベースラインモデルのセットを比較します。
論文 参考訳(メタデータ) (2024-03-27T15:15:14Z) - Memorization for Good: Encryption with Autoregressive Language Models [8.645826579841692]
自己回帰言語モデル(SELM)を用いた最初の対称暗号アルゴリズムを提案する。
自己回帰的LMは任意のデータをコンパクトな実数値ベクトル(すなわち暗号化)にエンコードし、ランダムな部分空間最適化とgreedy復号によってベクトルを元のメッセージ(すなわち復号)に無作為に復号できることを示す。
論文 参考訳(メタデータ) (2023-05-15T05:42:34Z) - PEOPL: Characterizing Privately Encoded Open Datasets with Public Labels [59.66777287810985]
プライバシとユーティリティのための情報理論スコアを導入し、不誠実なユーザの平均パフォーマンスを定量化する。
次に、ランダムなディープニューラルネットワークの使用を動機付ける符号化スキームのファミリーを構築する際のプリミティブを理論的に特徴づける。
論文 参考訳(メタデータ) (2023-03-31T18:03:53Z) - Privacy-Preserved Neural Graph Similarity Learning [99.78599103903777]
本稿では,グラフ類似性学習のためのプライバシ保存型ニューラルグラフマッチングネットワークモデルPPGMを提案する。
再構成攻撃を防ぐため、提案モデルではデバイス間でノードレベルの表現を通信しない。
グラフプロパティに対する攻撃を軽減するため、両方のベクトルの情報を含む難読化機能は通信される。
論文 参考訳(メタデータ) (2022-10-21T04:38:25Z) - Instance Attack:An Explanation-based Vulnerability Analysis Framework
Against DNNs for Malware Detection [0.0]
本稿では,インスタンスベースの攻撃の概念を提案する。
我々の方式は解釈可能であり、ブラックボックス環境でも機能する。
提案手法はブラックボックス設定で動作し,その結果をドメイン知識で検証することができる。
論文 参考訳(メタデータ) (2022-09-06T12:41:20Z) - Syfer: Neural Obfuscation for Private Data Release [58.490998583666276]
我々は、再識別攻撃から保護するための神経難読化法であるSyferを開発した。
Syferはトレーニングされたレイヤをランダムニューラルネットワークで構成し、元のデータをエンコードする。
エンコードされたデータから診断を予測する能力を維持している。
論文 参考訳(メタデータ) (2022-01-28T20:32:04Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z) - Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks [7.665392786787577]
プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-22T14:19:33Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z) - Cryptotree: fast and accurate predictions on encrypted structured data [0.0]
ホモモルフィック暗号化(HE)は、入力と出力の両方が暗号化される暗号化データ上での計算を可能にする能力で認められている。
線形回帰と比較して非常に強力な学習手法であるランダムフォレスト(RF)の利用を可能にするフレームワークであるCryptotreeを提案する。
論文 参考訳(メタデータ) (2020-06-15T11:48:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。