論文の概要: Fingerprinting Multi-exit Deep Neural Network Models via Inference Time
- arxiv url: http://arxiv.org/abs/2110.03175v1
- Date: Thu, 7 Oct 2021 04:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-08 15:33:31.999852
- Title: Fingerprinting Multi-exit Deep Neural Network Models via Inference Time
- Title(参考訳): 推論時間によるマルチエクイト深層ニューラルネットワークモデルのフィンガープリント
- Authors: Tian Dong and Han Qiu and Tianwei Zhang and Jiwei Li and Hewu Li and
Jialiang Lu
- Abstract要約: 提案手法は, 推測時間ではなく, 推測時間による指紋マルチエクイットモデルに対する新しいアプローチである。
具体的には,一意かつ堅牢な推論時間で推論プロセスを構築するために,指紋サンプルの集合を生成する効果的な手法を設計する。
- 参考スコア(独自算出の注目度): 18.12409619358209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transforming large deep neural network (DNN) models into the multi-exit
architectures can overcome the overthinking issue and distribute a large DNN
model on resource-constrained scenarios (e.g. IoT frontend devices and backend
servers) for inference and transmission efficiency. Nevertheless, intellectual
property (IP) protection for the multi-exit models in the wild is still an
unsolved challenge. Previous efforts to verify DNN model ownership mainly rely
on querying the model with specific samples and checking the responses, e.g.,
DNN watermarking and fingerprinting. However, they are vulnerable to
adversarial settings such as adversarial training and are not suitable for the
IP verification for multi-exit DNN models. In this paper, we propose a novel
approach to fingerprint multi-exit models via inference time rather than
inference predictions. Specifically, we design an effective method to generate
a set of fingerprint samples to craft the inference process with a unique and
robust inference time cost as the evidence for model ownership. We conduct
extensive experiments to prove the uniqueness and robustness of our method on
three structures (ResNet-56, VGG-16, and MobileNet) and three datasets
(CIFAR-10, CIFAR-100, and Tiny-ImageNet) under comprehensive adversarial
settings.
- Abstract(参考訳): 大規模なディープニューラルネットワーク(DNN)モデルをマルチエクイットアーキテクチャに変換することで、過大な問題を克服し、リソース制約のあるシナリオ(IoTフロントエンドデバイスやバックエンドサーバなど)上で大きなDNNモデルを分散することで、推論と送信効率を向上することができる。
それでも、マルチエグジットモデルに対する知的財産権(IP)保護は未解決の課題である。
これまでのDNNモデルのオーナシップを検証する取り組みは、主に特定のサンプルでモデルをクエリし、DNNの透かしや指紋認証などの応答をチェックすることに依存していた。
しかし、それらは敵のトレーニングのような敵の設定に脆弱であり、マルチエクイットdnnモデルのip検証には適していない。
本稿では, 予測よりも, 推定時間による指紋マルチエクイットモデルに対する新しいアプローチを提案する。
具体的には,モデルオーナシップの証拠として,一意かつロバストな推論時間コストで推論プロセスを作成するための,指紋サンプルセットを生成する効果的な手法を考案する。
我々は,3つの構造 (ResNet-56, VGG-16, MobileNet) と3つのデータセット (CIFAR-10, CIFAR-100, Tiny-ImageNet) に対して,その特異性とロバスト性を証明するための広範な実験を行った。
関連論文リスト
- Visual Prompting Upgrades Neural Network Sparsification: A Data-Model Perspective [64.04617968947697]
より優れた重量空間を実現するために、新しいデータモデル共設計視点を導入する。
具体的には、提案したVPNフレームワークでニューラルネットワークのスパーシフィケーションをアップグレードするために、カスタマイズされたVisual Promptが実装されている。
論文 参考訳(メタデータ) (2023-12-03T13:50:24Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - NaturalFinger: Generating Natural Fingerprint with Generative
Adversarial Networks [4.536351805614037]
本稿では,GANを用いた自然な指紋を生成するNaturalFingerを提案する。
提案手法はFingerBenchデータセット(154モデル)で0.91ARUC値を達成し,最適ベースライン(MetaV)を17%以上越えた。
論文 参考訳(メタデータ) (2023-05-29T03:17:03Z) - Improving Robustness Against Adversarial Attacks with Deeply Quantized
Neural Networks [0.5849513679510833]
ディープニューラルネットワーク(DNN)の欠点は、入力にわずかな摂動を加えることで騙されるため、敵の攻撃に対する脆弱性である。
本稿では,対戦型ブラックボックス攻撃に対して堅牢な小型DNNモデルを考案し,自動量子化学習フレームワークを用いて訓練した結果を報告する。
論文 参考訳(メタデータ) (2023-04-25T13:56:35Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Latent Boundary-guided Adversarial Training [61.43040235982727]
モデルトレーニングに敵の例を注入する最も効果的な戦略は、敵のトレーニングであることが証明されている。
本稿では, LAtent bounDary-guided aDvErsarial tRaining という新たな逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-08T07:40:55Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Dynamic Sparsity Neural Networks for Automatic Speech Recognition [44.352231175123215]
動的スパシティニューラルネットワーク(DSNN)は、トレーニングが完了すれば、実行時に任意の定義済みのスパシティ設定に即時に切り替えることができる。
したがって、トレーニングされたDSNNモデルは、トレーニングプロセスを大幅に緩和し、リソース制約のある多様なシナリオでのデプロイを簡素化できます。
論文 参考訳(メタデータ) (2020-05-16T22:08:54Z) - Triple Wins: Boosting Accuracy, Robustness and Efficiency Together by
Enabling Input-Adaptive Inference [119.19779637025444]
深層ネットワークは、(クリーンな自然画像の場合)正確さと(敵対的な摂動画像の場合)頑健さの相違に直面することを最近提案された。
本稿では,入力適応推論に関連するマルチエグジットネットワークについて検討し,モデル精度,ロバスト性,効率の最適化において「スイートポイント」を達成する上での強い期待を示す。
論文 参考訳(メタデータ) (2020-02-24T00:40:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。