論文の概要: Smart App Attack: Hacking Deep Learning Models in Android Apps
- arxiv url: http://arxiv.org/abs/2204.11075v1
- Date: Sat, 23 Apr 2022 14:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:56:45.791047
- Title: Smart App Attack: Hacking Deep Learning Models in Android Apps
- Title(参考訳): スマートアプリ攻撃:androidアプリでディープラーニングモデルをハッキングする
- Authors: Yujin Huang, Chunyang Chen
- Abstract要約: デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
- 参考スコア(独自算出の注目度): 16.663345577900813
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-device deep learning is rapidly gaining popularity in mobile applications.
Compared to offloading deep learning from smartphones to the cloud, on-device
deep learning enables offline model inference while preserving user privacy.
However, such mechanisms inevitably store models on users' smartphones and may
invite adversarial attacks as they are accessible to attackers. Due to the
characteristic of the on-device model, most existing adversarial attacks cannot
be directly applied for on-device models. In this paper, we introduce a
grey-box adversarial attack framework to hack on-device models by crafting
highly similar binary classification models based on identified transfer
learning approaches and pre-trained models from TensorFlow Hub. We evaluate the
attack effectiveness and generality in terms of four different settings
including pre-trained models, datasets, transfer learning approaches and
adversarial attack algorithms. The results demonstrate that the proposed
attacks remain effective regardless of different settings, and significantly
outperform state-of-the-art baselines. We further conduct an empirical study on
real-world deep learning mobile apps collected from Google Play. Among 53 apps
adopting transfer learning, we find that 71.7\% of them can be successfully
attacked, which includes popular ones in medicine, automation, and finance
categories with critical usage scenarios. The results call for the awareness
and actions of deep learning mobile app developers to secure the on-device
models. The code of this work is available at
https://github.com/Jinxhy/SmartAppAttack
- Abstract(参考訳): デバイス上のディープラーニングは、モバイルアプリケーションで急速に人気が高まっている。
スマートフォンからクラウドへのディープラーニングのオフロードと比較すると、デバイス上のディープラーニングは、ユーザのプライバシを保護しながらオフラインモデル推論を可能にする。
しかし、このようなメカニズムは必然的にユーザーのスマートフォンにモデルを格納し、攻撃者にアクセス可能な敵攻撃を招待する可能性がある。
オンデバイスモデルの特徴のため、既存のほとんどの敵攻撃はオンデバイスモデルに直接適用できない。
本稿では,デバイス上のモデルに対して,識別された転送学習アプローチとTensorFlow Hubからの事前学習モデルに基づいて,非常に類似したバイナリ分類モデルを構築することで,グレーボックスの逆攻撃フレームワークを導入する。
本研究では,事前学習モデル,データセット,転送学習手法,敵攻撃アルゴリズムを含む4種類の設定を用いて攻撃効果と汎用性を評価する。
その結果,提案した攻撃は,異なる設定によらず有効であり,最先端のベースラインを著しく上回ることがわかった。
さらに,Google Playから収集した実世界のディープラーニングモバイルアプリに関する実証的研究を行った。
トランスファーラーニングを採用する53のアプリのうち、71.7%が攻撃に成功しており、その中には医療、自動化、金融といった重要な利用シナリオがある。
結果は、ディープラーニングモバイルアプリ開発者がデバイス上でモデルをセキュアにするための認識と行動を求めるものだ。
この作業のコードはhttps://github.com/Jinxhy/SmartAppAttackで公開されている。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Defense Against Model Extraction Attacks on Recommender Systems [53.127820987326295]
本稿では、モデル抽出攻撃に対するリコメンデータシステムに対する防御のために、グラディエントベースのランキング最適化(GRO)を導入する。
GROは、攻撃者の代理モデルの損失を最大化しながら、保護対象モデルの損失を最小限にすることを目的としている。
その結果,モデル抽出攻撃に対するGROの防御効果は良好であった。
論文 参考訳(メタデータ) (2023-10-25T03:30:42Z) - A First Look at On-device Models in iOS Apps [40.531989012371525]
デバイス上でのディープラーニングモデルは、金融、ソーシャルメディア、運転支援といった重要な分野で使用されている。
Androidプラットフォームの透明性とデバイス内部のオンデバイスモデルのため、Androidスマートフォンのオンデバイスモデルは極めて脆弱であることが証明されている。
AndroidとiOSプラットフォーム上の同じアプリの機能も同様であるため、両方のプラットフォームに同じ脆弱性が存在する可能性がある。
論文 参考訳(メタデータ) (2023-07-23T13:50:44Z) - Learning to Learn Transferable Attack [77.67399621530052]
転送逆行攻撃は非自明なブラックボックス逆行攻撃であり、サロゲートモデル上で敵の摂動を発生させ、そのような摂動を被害者モデルに適用することを目的としている。
本研究では,データとモデル拡張の両方から学習することで,敵の摂動をより一般化する学習可能な攻撃学習法(LLTA)を提案する。
提案手法の有効性を実証し, 現状の手法と比較して, 12.85%のトランスファー攻撃の成功率で検証した。
論文 参考訳(メタデータ) (2021-12-10T07:24:21Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - Robustness of on-device Models: Adversarial Attack to Deep Learning
Models on Android Apps [14.821745719407037]
androidアプリ内のほとんどのディープラーニングモデルは、成熟したリバースエンジニアリングによって容易に得られる。
本研究では,敵対的攻撃を用いた深層学習モデルのハッキングに対して,単純かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2021-01-12T10:49:30Z) - An Empirical Review of Adversarial Defenses [0.913755431537592]
このようなシステムの基礎を形成するディープニューラルネットワークは、敵対攻撃と呼ばれる特定のタイプの攻撃に非常に影響を受けやすい。
ハッカーは、最小限の計算でも、敵対的な例(他のクラスに属するイメージやデータポイント)を生成し、そのようなアルゴリズムの基礎を崩壊させることができます。
本稿では,DropoutとDenoising Autoencodersの2つの効果的な手法を示し,そのような攻撃がモデルを騙すのを防ぐことに成功したことを示す。
論文 参考訳(メタデータ) (2020-12-10T09:34:41Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Two Sides of the Same Coin: White-box and Black-box Attacks for Transfer
Learning [60.784641458579124]
ホワイトボックスFGSM攻撃によるモデルロバスト性を効果的に向上することを示す。
また,移動学習モデルに対するブラックボックス攻撃手法を提案する。
ホワイトボックス攻撃とブラックボックス攻撃の双方の効果を系統的に評価するために,ソースモデルからターゲットモデルへの変換可能性の評価手法を提案する。
論文 参考訳(メタデータ) (2020-08-25T15:04:32Z) - Adversarial Imitation Attack [63.76805962712481]
現実的な敵攻撃は、攻撃されたモデルの知識をできるだけ少なくする必要がある。
現在の代替攻撃では、敵の例を生成するために事前訓練されたモデルが必要である。
本研究では,新たな敵模倣攻撃を提案する。
論文 参考訳(メタデータ) (2020-03-28T10:02:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。