論文の概要: Robustness of on-device Models: Adversarial Attack to Deep Learning
Models on Android Apps
- arxiv url: http://arxiv.org/abs/2101.04401v2
- Date: Thu, 4 Feb 2021 13:39:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:30:52.937545
- Title: Robustness of on-device Models: Adversarial Attack to Deep Learning
Models on Android Apps
- Title(参考訳): オンデバイスモデルのロバスト性:Androidアプリのディープラーニングモデルに対する敵対的攻撃
- Authors: Yujin Huang, Han Hu, Chunyang Chen
- Abstract要約: androidアプリ内のほとんどのディープラーニングモデルは、成熟したリバースエンジニアリングによって容易に得られる。
本研究では,敵対的攻撃を用いた深層学習モデルのハッキングに対して,単純かつ効果的なアプローチを提案する。
- 参考スコア(独自算出の注目度): 14.821745719407037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning has shown its power in many applications, including object
detection in images, natural-language understanding, and speech recognition. To
make it more accessible to end users, many deep learning models are now
embedded in mobile apps. Compared to offloading deep learning from smartphones
to the cloud, performing machine learning on-device can help improve latency,
connectivity, and power consumption. However, most deep learning models within
Android apps can easily be obtained via mature reverse engineering, while the
models' exposure may invite adversarial attacks. In this study, we propose a
simple but effective approach to hacking deep learning models using adversarial
attacks by identifying highly similar pre-trained models from TensorFlow Hub.
All 10 real-world Android apps in the experiment are successfully attacked by
our approach. Apart from the feasibility of the model attack, we also carry out
an empirical study that investigates the characteristics of deep learning
models used by hundreds of Android apps on Google Play. The results show that
many of them are similar to each other and widely use fine-tuning techniques to
pre-trained models on the Internet.
- Abstract(参考訳): ディープラーニングは、画像中のオブジェクト検出、自然言語理解、音声認識など、多くのアプリケーションでその力を示しています。
エンドユーザがアクセスしやすくするために、モバイルアプリに多くのディープラーニングモデルが組み込まれている。
スマートフォンからクラウドへのディープラーニングのオフロードと比較すると、デバイス上でのマシンラーニングの実行は、レイテンシ、接続性、消費電力の向上に役立つ。
しかし、Androidアプリ内のディープラーニングモデルのほとんどは、成熟したリバースエンジニアリングによって簡単に取得できる。
本研究では、TensorFlow Hubから、非常に類似したトレーニング済みモデルを特定し、敵攻撃を用いてディープラーニングモデルをハックする、単純だが効果的なアプローチを提案する。
実験中の10の現実世界のAndroidアプリはすべて、私たちのアプローチによって攻撃されています。
モデル攻撃の可能性とは別に、Google Play上で何百ものAndroidアプリが使用しているディープラーニングモデルの特徴を調査する実証的研究も実施している。
その結果,これらの多くは相互に類似しており,インターネット上で事前学習されたモデルにファインチューニング技術が広く使用されていることがわかった。
関連論文リスト
- Deep Generative Models in Robotics: A Survey on Learning from Multimodal Demonstrations [52.11801730860999]
近年、ロボット学習コミュニティは、大規模なデータセットの複雑さを捉えるために、深層生成モデルを使うことへの関心が高まっている。
本稿では,エネルギーベースモデル,拡散モデル,アクションバリューマップ,生成的敵ネットワークなど,コミュニティが探求してきたさまざまなモデルについて述べる。
また,情報生成から軌道生成,コスト学習に至るまで,深層生成モデルを用いた様々なアプリケーションについて述べる。
論文 参考訳(メタデータ) (2024-08-08T11:34:31Z) - Any-point Trajectory Modeling for Policy Learning [64.23861308947852]
我々は、ビデオフレーム内の任意の点の将来の軌跡を予測するために、ATM(Any-point Trajectory Modeling)を導入する。
ATMは、強力なビデオ事前トレーニングベースラインを平均80%上回っている。
本研究では,人間の動画やビデオからの操作スキルを,異なるロボット形態から効果的に伝達する学習方法を示す。
論文 参考訳(メタデータ) (2023-12-28T23:34:43Z) - Stop overkilling simple tasks with black-box models and use transparent
models instead [57.42190785269343]
ディープラーニングアプローチは、生データから自律的に機能を抽出することができる。
これにより、機能エンジニアリングプロセスをバイパスすることができる。
ディープラーニング戦略は、しばしば精度で従来のモデルより優れている。
論文 参考訳(メタデータ) (2023-02-06T14:28:49Z) - Smart App Attack: Hacking Deep Learning Models in Android Apps [16.663345577900813]
デバイス上のモデルをハックするために、グレーボックスの逆攻撃フレームワークを導入する。
攻撃の有効性と汎用性を4つの異なる設定で評価する。
転送学習を採用した53のアプリのうち、71.7%が攻撃に成功している。
論文 参考訳(メタデータ) (2022-04-23T14:01:59Z) - A Differentiable Recipe for Learning Visual Non-Prehensile Planar
Manipulation [63.1610540170754]
視覚的非包括的平面操作の問題に焦点をあてる。
本稿では,ビデオデコードニューラルモデルと接触力学の先行情報を組み合わせた新しいアーキテクチャを提案する。
モジュラーで完全に差別化可能なアーキテクチャは、目に見えないオブジェクトやモーションの学習専用手法よりも優れていることが分かりました。
論文 参考訳(メタデータ) (2021-11-09T18:39:45Z) - Evaluating Deep Learning Models and Adversarial Attacks on
Accelerometer-Based Gesture Authentication [6.961253535504979]
我々は、DC-GAN(Deep Convolutional Generative Adversarial Network)を用いて、敵対的サンプルを作成する。
私たちのディープラーニングモデルは、このような攻撃シナリオに対して驚くほど堅牢であることを示します。
論文 参考訳(メタデータ) (2021-10-03T00:15:50Z) - Multi-Robot Deep Reinforcement Learning for Mobile Navigation [82.62621210336881]
階層的統合モデル(HInt)を用いた深層強化学習アルゴリズムを提案する。
トレーニング時には、HIntは別々の知覚モデルとダイナミクスモデルを学び、テスト時には、HIntは2つのモデルを階層的な方法で統合し、統合モデルとアクションを計画する。
我々のモバイルナビゲーション実験は、HIntが従来の階層的ポリシーや単一ソースアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2021-06-24T19:07:40Z) - Challenges and Obstacles Towards Deploying Deep Learning Models on
Mobile Devices [1.422288795020666]
ディープラーニングモデルは、多くの高レベルのジェネリックフレームワークとライブラリを使って開発されている。
モバイルデバイス上でモデルを実行するには、ハードウェアによる最適化が必要です。
本稿では,モバイルデバイスにディープラーニングモデルをデプロイするための既存の課題,障害,実践的ソリューションについて述べる。
論文 参考訳(メタデータ) (2021-05-06T12:40:28Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - Model-Based Visual Planning with Self-Supervised Functional Distances [104.83979811803466]
モデルに基づく視覚的目標達成のための自己監視手法を提案する。
私たちのアプローチは、オフラインでラベルなしのデータを使って完全に学習します。
このアプローチは,モデルフリーとモデルベース先行手法の両方で大幅に性能が向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T23:59:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。