論文の概要: Mask Off: Analytic-based Malware Detection By Transfer Learning and
Model Personalization
- arxiv url: http://arxiv.org/abs/2211.10843v1
- Date: Sun, 20 Nov 2022 01:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 23:05:43.768272
- Title: Mask Off: Analytic-based Malware Detection By Transfer Learning and
Model Personalization
- Title(参考訳): mask off: トランスファーラーニングとモデルパーソナライゼーションによる解析に基づくマルウェア検出
- Authors: Amirmohammad Pasdar and Young Choon Lee and Seok-Hee Hong
- Abstract要約: 分析に基づくディープニューラルネットワーク,Android Malware Detection (ADAM)
本稿では,解析に基づくディープニューラルネットワーク,Android Malware Detection (ADAM)を提案する。
- 参考スコア(独自算出の注目度): 7.717537870226507
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The vulnerability of smartphones to cyberattacks has been a severe concern to
users arising from the integrity of installed applications (\textit{apps}).
Although applications are to provide legitimate and diversified on-the-go
services, harmful and dangerous ones have also uncovered the feasible way to
penetrate smartphones for malicious behaviors. Thorough application analysis is
key to revealing malicious intent and providing more insights into the
application behavior for security risk assessments. Such in-depth analysis
motivates employing deep neural networks (DNNs) for a set of features and
patterns extracted from applications to facilitate detecting potentially
dangerous applications independently. This paper presents an Analytic-based
deep neural network, Android Malware detection (ADAM), that employs a
fine-grained set of features to train feature-specific DNNs to have consensus
on the application labels when their ground truth is unknown. In addition, ADAM
leverages the transfer learning technique to obtain its adjustability to new
applications across smartphones for recycling the pre-trained model(s) and
making them more adaptable by model personalization and federated learning
techniques. This adjustability is also assisted by federated learning guards,
which protect ADAM against poisoning attacks through model analysis. ADAM
relies on a diverse dataset containing more than 153000 applications with over
41000 extracted features for DNNs training. The ADAM's feature-specific DNNs,
on average, achieved more than 98% accuracy, resulting in an outstanding
performance against data manipulation attacks.
- Abstract(参考訳): スマートフォンのサイバー攻撃に対する脆弱性は、インストールされたアプリケーションの完全性(\textit{apps})から生じるユーザーの深刻な懸念となっている。
アプリケーションは合法的で多様化したオンザゴーサービスを提供するが、有害で危険なサービスもまた、悪意のある行動のためにスマートフォンを浸透させる可能性を発見した。
アプリケーション分析は、悪意のある意図を明らかにし、セキュリティリスク評価のためのアプリケーションの振る舞いに関する洞察を提供するための鍵です。
このような深い分析は、アプリケーションから抽出された一連の特徴とパターンにディープニューラルネットワーク(DNN)を採用する動機となり、潜在的に危険なアプリケーションを独立して検出するのに役立つ。
本稿では,解析に基づく深層ニューラルネットワークであるAndroid Malware Detection (ADAM)を提案する。
さらに、ADAMは、トランスファーラーニング技術を活用して、事前学習されたモデル(s)をリサイクルし、モデルパーソナライズおよびフェデレーション学習技術によりより適応できるようにするために、スマートフォン全体の新しいアプリケーションへの調整性を得る。
この調整性は、モデル解析を通じてADAMを毒殺攻撃から保護するフェデレーション学習ガードによって支援される。
ADAMは、DNNトレーニング用に41000以上の機能を抽出した、153,000以上のアプリケーションを含む多様なデータセットに依存している。
ADAMの機能固有のDNNは、平均して98%以上の精度を達成し、データ操作攻撃に対する優れたパフォーマンスを実現した。
関連論文リスト
- Advancing Security in AI Systems: A Novel Approach to Detecting
Backdoors in Deep Neural Networks [3.489779105594534]
バックドアは、ディープニューラルネットワーク(DNN)上の悪意あるアクターと、データ処理のためのクラウドサービスによって悪用される。
提案手法は高度テンソル分解アルゴリズムを利用して,事前学習したDNNの重みを慎重に解析し,バックドアモデルとクリーンモデルとの区別を行う。
この進歩は、ネットワークシステムにおけるディープラーニングとAIのセキュリティを強化し、新興技術の脅威の進化に対して不可欠なサイバーセキュリティを提供する。
論文 参考訳(メタデータ) (2024-03-13T03:10:11Z) - Model X-ray:Detect Backdoored Models via Decision Boundary [66.41173675107886]
ディープニューラルネットワーク(DNN)はさまざまな産業に革命をもたらし、機械学習・アズ・ア・サービス(ML)の台頭につながった。
DNNはバックドア攻撃の影響を受けやすいため、アプリケーションに重大なリスクが生じる。
本稿では,決定境界の解析を通じて,MLの新しいバックドア検出手法であるModel X-rayを提案する。
論文 参考訳(メタデータ) (2024-02-27T12:42:07Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - On the Evaluation of User Privacy in Deep Neural Networks using Timing
Side Channel [14.350301915592027]
我々は,Deep Learning (DL) の実装において,新たなデータ依存型タイミング側チャネルリーク(クラスリーク)を特定し,報告する。
ユーザ特権とハードラベルのブラックボックスアクセスを持つ敵が、クラスリークを悪用できる、実用的な推論時攻撃を実証する。
我々は,クラスリークを緩和する定時分岐操作を行うことにより,実装が容易な対策を開発する。
論文 参考訳(メタデータ) (2022-08-01T19:38:16Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - DeepPayload: Black-box Backdoor Attack on Deep Learning Models through
Neural Payload Injection [17.136757440204722]
我々は,コンパイルされたディープラーニングモデルに対して,リバースエンジニアリング技術を用いて,極めて実用的なバックドアアタックを導入する。
注入されたバックドアは93.5%の成功率で起動できるが、遅延オーバーヘッドは2ms以下で精度は1.4%以下である。
人気アプリやセキュリティクリティカルアプリなど、攻撃に対して脆弱な54のアプリが見つかりました。
論文 参考訳(メタデータ) (2021-01-18T06:29:30Z) - Experimental Review of Neural-based approaches for Network Intrusion
Management [8.727349339883094]
本稿では,侵入検出問題に適用したニューラルネットワーク手法の実験的検討を行う。
私たちは、ディープベースアプローチやウェイトレスニューラルネットワークを含む、侵入検出に関連する最も顕著なニューラルネットワークベースのテクニックの完全なビューを提供します。
我々の評価は、特に最先端のデータセットを使用してモデルのトレーニングを行う場合、ニューラルネットワークの価値を定量化する。
論文 参考訳(メタデータ) (2020-09-18T18:32:24Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。