論文の概要: Deploying Convolutional Networks on Untrusted Platforms Using 2D
Holographic Reduced Representations
- arxiv url: http://arxiv.org/abs/2206.05893v1
- Date: Mon, 13 Jun 2022 03:31:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 13:36:14.449591
- Title: Deploying Convolutional Networks on Untrusted Platforms Using 2D
Holographic Reduced Representations
- Title(参考訳): 2次元ホログラフィック縮小表現を用いた信頼できないプラットフォームへの畳み込みネットワークの展開
- Authors: Mohammad Mahmudul Alam, Edward Raff, Tim Oates, James Holt
- Abstract要約: 我々は、攻撃に対する堅牢性を実証的に示す擬似暗号化スタイルの防御を備えたニューラルネットワークを作成する。
ホログラフィック・シンボリック・リダクテッド・表現(HRR)を活用することで,攻撃に対する堅牢性を実証的に示す擬似暗号化方式のニューラルネットワークを構築する。
- 参考スコア(独自算出の注目度): 33.26156710843837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the computational cost of running inference for a neural network, the
need to deploy the inferential steps on a third party's compute environment or
hardware is common. If the third party is not fully trusted, it is desirable to
obfuscate the nature of the inputs and outputs, so that the third party can not
easily determine what specific task is being performed. Provably secure
protocols for leveraging an untrusted party exist but are too computational
demanding to run in practice. We instead explore a different strategy of fast,
heuristic security that we call Connectionist Symbolic Pseudo Secrets. By
leveraging Holographic Reduced Representations (HRR), we create a neural
network with a pseudo-encryption style defense that empirically shows
robustness to attack, even under threat models that unrealistically favor the
adversary.
- Abstract(参考訳): ニューラルネットワークの推論を実行する計算コストのため、サードパーティの計算環境やハードウェアに推論ステップをデプロイする必要が一般的である。
第三者が完全に信頼されていない場合、入力と出力の性質を難読化することが望ましいので、第三者が実行中の特定のタスクを容易に決定できない。
信頼できない相手を利用するための安全なプロトコルは存在するが、実際に実行するには計算要求が多すぎる。
代わりに、Connectionist Symbolic Pseudo Secretsと呼ばれる、高速でヒューリスティックなセキュリティの異なる戦略を探求します。
ホログラフィック縮小表現(hrr)を利用することで、非現実的に敵に有利な脅威モデルの下でも、攻撃に対する堅牢性を示す疑似暗号化スタイルの防御を備えたニューラルネットワークを構築する。
関連論文リスト
- Convex neural network synthesis for robustness in the 1-norm [0.0]
本稿では,より堅牢なニューラルネットワークの近似を生成する手法を提案する。
モデル予測制御の堅牢化への応用は、その結果を示すために用いられる。
論文 参考訳(メタデータ) (2024-05-29T12:17:09Z) - Secure Deep Learning-based Distributed Intelligence on Pocket-sized
Drones [75.80952211739185]
パームサイズのナノドロンはエッジノードの魅力的なクラスであるが、その限られた計算資源は大規模なディープラーニングモデルの実行を妨げている。
エッジフォッグ計算のパラダイムを採用することで、計算の一部をフォグにオフロードすることができるが、フォグノードや通信リンクが信頼できない場合、セキュリティ上の懸念が生じる。
ナノドローン上でランダムなサブネットワークを冗長に実行することにより,霧の計算を検証する分散エッジフォッグ実行方式を提案する。
論文 参考訳(メタデータ) (2023-07-04T08:29:41Z) - Graph Neural Networks for Decentralized Multi-Agent Perimeter Defense [111.9039128130633]
我々は,防御者の地域認識とコミュニケーショングラフから行動へのマッピングを学習する模倣学習フレームワークを開発した。
学習ネットワークの性能を実証するために、異なるチームサイズと構成のシナリオで周辺防衛ゲームを実行します。
論文 参考訳(メタデータ) (2023-01-23T19:35:59Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - An Analysis of Robustness of Non-Lipschitz Networks [35.64511156980701]
小さな入力摂動は、しばしばネットワークの最終層の特徴空間において大きな動きを引き起こす。
我々のモデルでは、敵対者は特徴空間において任意の距離でデータを移動することができるが、ランダムな低次元部分空間においてのみである。
データ駆動方式を用いて,アルゴリズムパラメータの設定を精度保持トレードオフよりも最適化するための理論的保証を提供する。
論文 参考訳(メタデータ) (2020-10-13T03:56:39Z) - Robust Deep Learning Ensemble against Deception [11.962128272844158]
XEnsembleは、機械学習モデルの敵対的堅牢性を高めるための多様性アンサンブル検証手法である。
我々は,XEnsembleが,敵の例に対して高い防御成功率,非分配データ入力に対して高い検出成功率を達成することを示す。
論文 参考訳(メタデータ) (2020-09-14T17:20:01Z) - MPC-enabled Privacy-Preserving Neural Network Training against Malicious
Attack [44.50542274828587]
セキュアなニューラルネットワークトレーニングのための効率的な$n$-partyプロトコルを構築するためのアプローチを提案する。
アクティブにセキュアなニューラルネットワークトレーニングでは、LANおよびWAN設定で約2倍と2.7倍の安価な効率オーバーヘッドが発生します。
さらに、整数環 $mathbbZ_N$ 上で定義された加法的共有を有限体 $mathbbZ_Q$ 上の加法的共有に安全に変換できるスキームを提案する。
論文 参考訳(メタデータ) (2020-07-24T15:03:51Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - HYDRA: Pruning Adversarially Robust Neural Networks [58.061681100058316]
ディープラーニングは、敵対的攻撃に対する堅牢性の欠如と、大規模なニューラルネットワークサイズという、2つの大きな課題に直面している。
そこで本稿では,頑健なトレーニング目標を意識したプルーニング手法を提案し,トレーニング目標にプルーンへの接続を探索させる。
HYDRAと題する我々の手法は,最先端のベニグニグニグニグニグニとロバストな精度で圧縮されたネットワークを同時に実現できることを実証する。
論文 参考訳(メタデータ) (2020-02-24T19:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。