論文の概要: ObfuNAS: A Neural Architecture Search-based DNN Obfuscation Approach
- arxiv url: http://arxiv.org/abs/2208.08569v1
- Date: Wed, 17 Aug 2022 23:25:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-19 14:01:54.645666
- Title: ObfuNAS: A Neural Architecture Search-based DNN Obfuscation Approach
- Title(参考訳): ObfuNAS: ニューラルネットワーク検索に基づくDNN難読化アプローチ
- Authors: Tong Zhou, Shaolei Ren, Xiaolin Xu
- Abstract要約: ディープニューラルネットワーク(DNN)セキュリティにとって、悪意あるアーキテクチャ抽出が重要な懸念事項として浮上している。
本稿では,DNNアーキテクチャの難読化をニューラルネットワーク探索(NAS)問題に変換するObfuNASを提案する。
我々はNAS-Bench-101やNAS-Bench-301のようなオープンソースのアーキテクチャデータセットを用いてObfuNASの性能を検証する。
- 参考スコア(独自算出の注目度): 25.5826067429808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Malicious architecture extraction has been emerging as a crucial concern for
deep neural network (DNN) security. As a defense, architecture obfuscation is
proposed to remap the victim DNN to a different architecture. Nonetheless, we
observe that, with only extracting an obfuscated DNN architecture, the
adversary can still retrain a substitute model with high performance (e.g.,
accuracy), rendering the obfuscation techniques ineffective. To mitigate this
under-explored vulnerability, we propose ObfuNAS, which converts the DNN
architecture obfuscation into a neural architecture search (NAS) problem. Using
a combination of function-preserving obfuscation strategies, ObfuNAS ensures
that the obfuscated DNN architecture can only achieve lower accuracy than the
victim. We validate the performance of ObfuNAS with open-source architecture
datasets like NAS-Bench-101 and NAS-Bench-301. The experimental results
demonstrate that ObfuNAS can successfully find the optimal mask for a victim
model within a given FLOPs constraint, leading up to 2.6% inference accuracy
degradation for attackers with only 0.14x FLOPs overhead. The code is available
at: https://github.com/Tongzhou0101/ObfuNAS.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)セキュリティにとって、悪意あるアーキテクチャ抽出が重要な懸念事項として浮上している。
防御として、犠牲者のDNNを別のアーキテクチャに再マップするために、アーキテクチャ難読化が提案されている。
それでも、難読化DNNアーキテクチャを抽出するだけで、敵は高い性能(例えば精度)で代替モデルを再訓練でき、難読化技術は効果がない。
この脆弱性を緩和するために、DNNアーキテクチャ難読化をニューラルネットワーク探索(NAS)問題に変換するObfuNASを提案する。
ObfuNASは機能保存の難読化戦略を組み合わせて、難読化DNNアーキテクチャが犠牲者よりも低い精度しか達成できないことを保証している。
我々はNAS-Bench-101やNAS-Bench-301のようなオープンソースのアーキテクチャデータセットを用いてObfuNASの性能を検証する。
実験の結果、ObfuNASは与えられたFLOPs制約内で被害者モデルに最適なマスクを見つけることができ、0.14倍のFLOPsオーバーヘッドしか持たない攻撃者に対して2.6%の推論精度の劣化をもたらすことが示された。
コードは、https://github.com/Tongzhou0101/ObfuNAS.comで入手できる。
関連論文リスト
- The devil is in discretization discrepancy. Robustifying Differentiable NAS with Single-Stage Searching Protocol [2.4300749758571905]
勾配に基づく手法は離散化誤差に悩まされ、最終的なアーキテクチャを得る過程を著しく損なう可能性がある。
本稿では,連続的なアーキテクチャの復号化に依存しない新しい単一ステージ探索プロトコルを提案する。
本手法は,Cityscapes検証データセットの検索段階において75.3%の精度で他のDNAS法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-05-26T15:44:53Z) - DNA Family: Boosting Weight-Sharing NAS with Block-Wise Supervisions [121.05720140641189]
蒸留型ニューラルアーキテクチャ(DNA)技術を用いたモデル群を開発した。
提案するDNAモデルでは,アルゴリズムを用いてサブサーチ空間にのみアクセス可能な従来の手法とは対照的に,すべてのアーキテクチャ候補を評価できる。
当社のモデルでは,モバイルコンボリューションネットワークと小型ビジョントランスフォーマーにおいて,ImageNet上で78.9%,83.6%の最先端トップ1精度を実現している。
論文 参考訳(メタデータ) (2024-03-02T22:16:47Z) - DeepTheft: Stealing DNN Model Architectures through Power Side Channel [42.380259435613354]
Deep Neural Network(DNN)モデルは、推論サービスを提供するために、機械学習・アズ・ア・サービス(ML)としてリソース共有クラウドにデプロイされることが多い。
貴重な知的特性を持つモデルアーキテクチャを盗むために、異なるサイドチャネルリークを介して攻撃のクラスが提案されている。
我々は、RAPLベースの電源側チャネルを介して、汎用プロセッサ上の複雑なDNNモデルアーキテクチャを正確に復元する、新しいエンドツーエンドアタックであるDeepTheftを提案する。
論文 参考訳(メタデータ) (2023-09-21T08:58:14Z) - GeNAS: Neural Architecture Search with Better Generalization [14.92869716323226]
最近のニューラルアーキテクチャサーチ(NAS)アプローチは、対象データに対して優れたネットワークを見つけるために、検証損失または精度に依存している。
そこで本研究では,より一般化した探索型アーキテクチャのためのニューラルアーキテクチャ探索手法について検討する。
論文 参考訳(メタデータ) (2023-05-15T12:44:54Z) - EZClone: Improving DNN Model Extraction Attack via Shape Distillation
from GPU Execution Profiles [0.1529342790344802]
Deep Neural Networks (DNN) は、予測や分類問題のパフォーマンスのため、ユビキタスになった。
利用が広がるにつれ、さまざまな脅威に直面している。
DNNを盗み、知的財産権、データプライバシ、セキュリティを脅かすモデル抽出攻撃。
様々な脅威モデルに対応する2つの手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T21:40:09Z) - NASiam: Efficient Representation Learning using Neural Architecture
Search for Siamese Networks [76.8112416450677]
シームズネットワークは、自己教師付き視覚表現学習(SSL)を実現するための最も傾向のある方法の1つである。
NASiamは、初めて微分可能なNASを使用して、多層パーセプトロンプロジェクタと予測器(エンコーダ/予測器ペア)を改善する新しいアプローチである。
NASiamは、小規模(CIFAR-10/CIFAR-100)と大規模(画像Net)画像分類データセットの両方で競合性能を達成し、わずか数GPU時間しかかからない。
論文 参考訳(メタデータ) (2023-01-31T19:48:37Z) - NeuroUnlock: Unlocking the Architecture of Obfuscated Deep Neural
Networks [12.264879142584617]
我々は難読化ディープニューラルネットワーク(DNN)に対する新しいSCAS攻撃であるNeuroUnlockを紹介する。
当社のNeuroUnlockでは,難読化手順を学習し,自動的に再帰するシーケンス・ツー・シーケンスモデルを採用している。
また, DNN難読化のための新しい手法であるReDLockを提案し, 難読化の決定論的性質を根絶する。
論文 参考訳(メタデータ) (2022-06-01T11:10:00Z) - NAS-FCOS: Efficient Search for Object Detection Architectures [113.47766862146389]
簡易なアンカーフリー物体検出器の特徴ピラミッドネットワーク (FPN) と予測ヘッドを探索し, より効率的な物体検出手法を提案する。
慎重に設計された検索空間、検索アルゴリズム、ネットワーク品質を評価するための戦略により、8つのV100 GPUを使用して、4日以内に最高のパフォーマンスの検知アーキテクチャを見つけることができる。
論文 参考訳(メタデータ) (2021-10-24T12:20:04Z) - D-DARTS: Distributed Differentiable Architecture Search [75.12821786565318]
微分可能なArchiTecture Search(DARTS)は、最も流行しているニューラルネットワークサーチ(NAS)の1つである。
セルレベルで複数のニューラルネットワークをネストすることでこの問題に対処する新しいソリューションD-DARTSを提案する。
論文 参考訳(メタデータ) (2021-08-20T09:07:01Z) - BossNAS: Exploring Hybrid CNN-transformers with Block-wisely
Self-supervised Neural Architecture Search [100.28980854978768]
BossNAS(Block-wisely Self-supervised Neural Architecture Search)の紹介
探索空間をブロックに分類し、アンサンブルブートストラッピングと呼ばれる新しい自己教師型トレーニングスキームを用いて各ブロックを個別に訓練する。
また,検索可能なダウンサンプリング位置を持つファブリック型cnnトランスフォーマ検索空間であるhytra search spaceを提案する。
論文 参考訳(メタデータ) (2021-03-23T10:05:58Z) - Weak NAS Predictors Are All You Need [91.11570424233709]
最近の予測器ベースのnasアプローチは、アーキテクチャとパフォーマンスのペアをサンプリングし、プロキシの精度を予測するという2つの重要なステップで問題を解決しようとする。
私たちはこのパラダイムを、アーキテクチャ空間全体をカバーする複雑な予測子から、ハイパフォーマンスなサブスペースへと徐々に進む弱い予測子へとシフトさせます。
NAS-Bench-101 および NAS-Bench-201 で最高の性能のアーキテクチャを見つけるためのサンプルを少なくし、NASNet 検索空間における最先端の ImageNet パフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-21T01:58:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。