論文の概要: Automatically Lock Your Neural Networks When You're Away
- arxiv url: http://arxiv.org/abs/2103.08472v1
- Date: Mon, 15 Mar 2021 15:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-16 13:43:27.987806
- Title: Automatically Lock Your Neural Networks When You're Away
- Title(参考訳): 留守中に自動的にニューラルネットワークをロックする
- Authors: Ge Ren, Jun Wu, Gaolei Li, Shenghong Li
- Abstract要約: ローカルな動的アクセス制御を備えたエンドツーエンドのニューラルネットワークを実現するモデルロック(M-LOCK)を提案する。
3種類のモデルトレーニング戦略は、1つのニューラルネットワークで認証された入力と疑似入力の間の膨大なパフォーマンスの相違を達成するために不可欠である。
- 参考スコア(独自算出の注目度): 5.153873824423363
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The smartphone and laptop can be unlocked by face or fingerprint recognition,
while neural networks which confront numerous requests every day have little
capability to distinguish between untrustworthy and credible users. It makes
model risky to be traded as a commodity. Existed research either focuses on the
intellectual property rights ownership of the commercialized model, or traces
the source of the leak after pirated models appear. Nevertheless, active
identifying users legitimacy before predicting output has not been considered
yet. In this paper, we propose Model-Lock (M-LOCK) to realize an end-to-end
neural network with local dynamic access control, which is similar to the
automatic locking function of the smartphone to prevent malicious attackers
from obtaining available performance actively when you are away. Three kinds of
model training strategy are essential to achieve the tremendous performance
divergence between certified and suspect input in one neural network. Extensive
experiments based on MNIST, FashionMNIST, CIFAR10, CIFAR100, SVHN and GTSRB
datasets demonstrated the feasibility and effectiveness of the proposed scheme.
- Abstract(参考訳): スマートフォンとラップトップは顔や指紋認証でアンロックできるが、毎日多くのリクエストに直面するニューラルネットワークは、信頼できないユーザーと信頼できるユーザーを区別する能力がほとんどない。
モデルは商品として取引されるリスクがある。
既存の研究は、商用モデルの知的財産権の所有権に焦点を当てるか、海賊モデルが現れた後にリークの原因を追跡するかのどちらかである。
それにもかかわらず、アウトプットを予測する前のアクティブ識別ユーザーの正当性はまだ検討されていません。
本稿では,スマートフォンの自動ロック機能に類似した,ローカルな動的アクセス制御を備えたエンドツーエンドのニューラルネットワークを実現するモデルロック(M-LOCK)を提案する。
3種類のモデルトレーニング戦略は、1つのニューラルネットワークで認証された入力と疑似入力の間の膨大なパフォーマンスの相違を達成するために不可欠である。
MNIST, FashionMNIST, CIFAR10, CIFAR100, SVHNおよびGTSRBデータセットに基づく広範な実験は、提案されたスキームの実現可能性と有効性を示した。
関連論文リスト
- TEN-GUARD: Tensor Decomposition for Backdoor Attack Detection in Deep
Neural Networks [3.489779105594534]
本稿では,ネットワークアクティベーションに適用した2つのテンソル分解法によるバックドア検出手法を提案する。
これは、複数のモデルを同時に分析する機能など、既存の検出方法と比較して、多くの利点がある。
その結果,現在の最先端手法よりも,バックドアネットワークを高精度かつ効率的に検出できることがわかった。
論文 参考訳(メタデータ) (2024-01-06T03:08:28Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Publishing Efficient On-device Models Increases Adversarial
Vulnerability [58.6975494957865]
本稿では,大規模モデルのオンデバイス版を公開する際のセキュリティ上の考慮事項について検討する。
まず、敵がデバイス上のモデルを悪用し、大きなモデルを攻撃しやすくすることを示す。
次に、フルスケールと効率的なモデルとの類似性が増加するにつれて、脆弱性が増加することを示す。
論文 参考訳(メタデータ) (2022-12-28T05:05:58Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - MOVE: Effective and Harmless Ownership Verification via Embedded
External Features [109.19238806106426]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
特に、包括的モデル保護を提供するために、ホワイトボックスとブラックボックスの両方の設定でMOVE法を開発した。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - Fingerprinting Multi-exit Deep Neural Network Models via Inference Time [18.12409619358209]
提案手法は, 推測時間ではなく, 推測時間による指紋マルチエクイットモデルに対する新しいアプローチである。
具体的には,一意かつ堅牢な推論時間で推論プロセスを構築するために,指紋サンプルの集合を生成する効果的な手法を設計する。
論文 参考訳(メタデータ) (2021-10-07T04:04:01Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Generating Probabilistic Safety Guarantees for Neural Network
Controllers [30.34898838361206]
ダイナミクスモデルを使用して、ニューラルネットワークコントローラが安全に動作するために保持する必要がある出力プロパティを決定します。
ニューラルネットワークポリシの近似を効率的に生成するための適応的検証手法を開発した。
本手法は,航空機衝突回避ニューラルネットワークの確率的安全性を保証することができることを示す。
論文 参考訳(メタデータ) (2021-03-01T18:48:21Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。