論文の概要: Less is More: A privacy-respecting Android malware classifier using
Federated Learning
- arxiv url: http://arxiv.org/abs/2007.08319v3
- Date: Wed, 16 Jun 2021 09:41:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-10 00:11:03.593017
- Title: Less is More: A privacy-respecting Android malware classifier using
Federated Learning
- Title(参考訳): less is more:federated learningを用いたプライバシーを尊重するandroidマルウェア分類器
- Authors: Rafa G\'alvez, Veelasha Moonsamy, Claudia Diaz
- Abstract要約: LiMは、Federated Learningを利用して悪意のあるアプリを検出し、分類するマルウェア分類フレームワークである。
新たにインストールされたアプリに関する情報は、ユーザのデバイスにローカルに保持されるため、プロバイダは、ユーザがインストールしたアプリを推測することはできない。
LiMは、クライアントの半数を制御している敵による毒殺攻撃と、正直だが悪質なクラウドサーバによる推論攻撃の両方に対して堅牢であることを示す。
- 参考スコア(独自算出の注目度): 2.1301190271783312
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper we present LiM ("Less is More"), a malware classification
framework that leverages Federated Learning to detect and classify malicious
apps in a privacy-respecting manner. Information about newly installed apps is
kept locally on users' devices, so that the provider cannot infer which apps
were installed by users. At the same time, input from all users is taken into
account in the federated learning process and they all benefit from better
classification performance. A key challenge of this setting is that users do
not have access to the ground truth (i.e. they cannot correctly identify
whether an app is malicious). To tackle this, LiM uses a safe semi-supervised
ensemble that maximizes classification accuracy with respect to a baseline
classifier trained by the service provider (i.e. the cloud). We implement LiM
and show that the cloud server has F1 score of 95%, while clients have perfect
recall with only 1 false positive in >100 apps, using a dataset of 25K clean
apps and 25K malicious apps, 200 users and 50 rounds of federation.
Furthermore, we conduct a security analysis and demonstrate that LiM is robust
against both poisoning attacks by adversaries who control half of the clients,
and inference attacks performed by an honest-but-curious cloud server. Further
experiments with MaMaDroid's dataset confirm resistance against poisoning
attacks and a performance improvement due to the federation.
- Abstract(参考訳): 本稿では、Federated Learningを利用したマルウェア分類フレームワークであるLiM(Less is More)を紹介し、悪意のあるアプリをプライバシーを尊重して検出・分類する。
新たにインストールされたアプリの情報は、ユーザのデバイスにローカルに保持されるため、プロバイダは、ユーザがインストールしたアプリを推測できない。
同時に、すべてのユーザからの入力は、連合学習プロセスにおいて考慮され、それらすべてがより良い分類性能の恩恵を受ける。
この設定の重要な課題は、ユーザーが基礎的な真実にアクセスできないことである(つまり、アプリが悪意があるかどうかを正しく識別できない)。
これを解決するために、LiMは安全な半教師付きアンサンブルを使用し、サービスプロバイダ(すなわちクラウド)によって訓練されたベースライン分類器に対する分類精度を最大化する。
limを実装して,クラウドサーバのf1スコアが95%であることを示すと同時に,25kのクリーンアプリと25kの悪意のあるアプリ,200のユーザ,50ラウンドのフェデレーションのデータセットを使用して,100以上のアプリにおいて偽陽性が1つだけある完全なリコールをクライアントに提供する。
さらに、セキュリティ分析を行い、クライアントの半分を制御している敵による毒殺攻撃と、正直なクラウドサーバによる推論攻撃の両方に対して、LiMが堅牢であることを示す。
MaMaDroidのデータセットによるさらなる実験では、毒性攻撃に対する耐性と、フェデレーションによるパフォーマンス改善が確認された。
関連論文リスト
- Security Analysis of Top-Ranked mHealth Fitness Apps: An Empirical Study [0.32885740436059047]
われわれはトップランクのAndroidヘルスおよびフィットネスアプリのセキュリティ脆弱性を調査した。
安全でないコーディング,ハードコードされた機密情報,過度に特権化されたパーミッション,設定ミス,サードパーティドメインとの過剰な通信など,多くの脆弱性が確認された。
論文 参考訳(メタデータ) (2024-09-27T08:11:45Z) - Robust Federated Learning Mitigates Client-side Training Data Distribution Inference Attacks [48.70867241987739]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - FedBayes: A Zero-Trust Federated Learning Aggregation to Defend Against
Adversarial Attacks [1.689369173057502]
フェデレートラーニング(Federated Learning)は、クライアントデータに直接アクセスすることなく、マシンラーニングモデルをトレーニングする分散メソッドを開発した。
悪意のあるクライアントは、グローバルモデルを破壊し、フェデレーション内のすべてのクライアントのパフォーマンスを低下させることができる。
新たなアグリゲーション手法であるFedBayesは、クライアントのモデル重みの確率を計算することにより、悪意のあるクライアントの効果を緩和する。
論文 参考訳(メタデータ) (2023-12-04T21:37:50Z) - FedDefender: Client-Side Attack-Tolerant Federated Learning [60.576073964874]
フェデレーション学習は、プライバシを損なうことなく、分散化されたデータソースからの学習を可能にする。
悪意のあるクライアントがトレーニングプロセスに干渉する、毒殺攻撃のモデル化には脆弱である。
我々はFedDefenderと呼ばれるクライアントサイドに焦点を当てた新しい防御機構を提案し、クライアントの堅牢なローカルモデルのトレーニングを支援する。
論文 参考訳(メタデータ) (2023-07-18T08:00:41Z) - Hiding in Plain Sight: Disguising Data Stealing Attacks in Federated Learning [1.9374282535132377]
悪意のあるサーバ(MS)攻撃のクライアント側検出性を初めて検討した。
これらの要件を満たす新しいアタックフレームワークであるSEERを提案する。
SEERは,最大512のバッチサイズであっても,現実的なネットワークの勾配からユーザデータを盗むことができることを示す。
論文 参考訳(メタデータ) (2023-06-05T16:29:54Z) - FLCert: Provably Secure Federated Learning against Poisoning Attacks [67.8846134295194]
FLCertは、有毒な攻撃に対して確実に安全であるアンサンブル・フェデレート学習フレームワークである。
実験の結果,テスト入力に対するFLCertで予測されたラベルは,有意な数の悪意のあるクライアントによって影響を受けないことが判明した。
論文 参考訳(メタデータ) (2022-10-02T17:50:04Z) - FLVoogd: Robust And Privacy Preserving Federated Learning [12.568409209047505]
プライバシを保護しながら,サーバとクライアントが共同でビザンチン攻撃を除去する,新たなフェデレート学習手法であるoogdを提案する。
サーバは、S2PCと組み合わされたDBSCAN(Spatial Clustering of Applications)の自動密度ベースの空間クラスタリングを使用して、機密性の高い個人情報を取得せずに、良質な多数派をクラスタリングする。
私たちのフレームワークは自動で適応的なので、サーバ/クライアントはトレーニング中にパラメータをチューニングする必要がありません。
論文 参考訳(メタデータ) (2022-06-24T08:48:15Z) - Dynamic detection of mobile malware using smartphone data and machine
learning [0.0]
モバイルマルウェアは、モバイルデバイスをターゲットにした悪意のあるプログラムである。
アクティブなスマートフォンユーザーの数は増加すると予想され、モバイルマルウェアの検出に関する研究の重要性を強調している。
本稿では,特権アクセスを使わずに,Android上でマルウェアを検出する機械学習(ML)技術の性能について概説する。
論文 参考訳(メタデータ) (2021-07-23T12:33:14Z) - Federated Learning-based Active Authentication on Mobile Devices [98.23904302910022]
モバイルデバイス上のユーザアクティブ認証は、デバイスセンサ情報に基づいて登録ユーザを正しく認識できるモデルを学ぶことを目的としている。
Federated Active Authentication (FAA) と呼ばれる新しいユーザーアクティブ認証トレーニングを提案します。
既存のFL/SL法は,同質に分散するデータに依存するため,FAAにとって最適ではないことを示す。
論文 参考訳(メタデータ) (2021-04-14T22:59:08Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。