論文の概要: CELEST: Federated Learning for Globally Coordinated Threat Detection
- arxiv url: http://arxiv.org/abs/2205.11459v1
- Date: Mon, 23 May 2022 16:53:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 20:20:18.627093
- Title: CELEST: Federated Learning for Globally Coordinated Threat Detection
- Title(参考訳): CELEST:グローバルに協調した脅威検出のためのフェデレートラーニング
- Authors: Talha Ongun, Simona Boboila, Alina Oprea, Tina Eliassi-Rad, Jason
Hiser, Jack Davidson
- Abstract要約: CELESTは、HTTP上のグローバルな脅威検出のための、フェデレートされた機械学習フレームワークである。
我々は、CELESTが個々の組織にほとんど見えない攻撃を公開することができることを示した。
CELESTは、これまで知られていなかった42の悪意のあるURLと20の悪意のあるドメインを1日で検出した。
- 参考スコア(独自算出の注目度): 10.535644048572514
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The cyber-threat landscape has evolved tremendously in recent years, with new
threat variants emerging daily, and large-scale coordinated campaigns becoming
more prevalent. In this study, we propose CELEST (CollaborativE LEarning for
Scalable Threat detection), a federated machine learning framework for global
threat detection over HTTP, which is one of the most commonly used protocols
for malware dissemination and communication. CELEST leverages federated
learning in order to collaboratively train a global model across multiple
clients who keep their data locally, thus providing increased privacy and
confidentiality assurances. Through a novel active learning component
integrated with the federated learning technique, our system continuously
discovers and learns the behavior of new, evolving, and globally-coordinated
cyber threats. We show that CELEST is able to expose attacks that are largely
invisible to individual organizations. For instance, in one challenging attack
scenario with data exfiltration malware, the global model achieves a three-fold
increase in Precision-Recall AUC compared to the local model. We deploy CELEST
on two university networks and show that it is able to detect the malicious
HTTP communication with high precision and low false positive rates.
Furthermore, during its deployment, CELEST detected a set of previously unknown
42 malicious URLs and 20 malicious domains in one day, which were confirmed to
be malicious by VirusTotal.
- Abstract(参考訳): サイバー脅威の状況は近年大きく進化し、新たな脅威の変種が日々出現し、大規模に協調したキャンペーンが普及している。
本研究では,マルウェアの拡散と通信によく使われるプロトコルの一つである,http上のグローバル脅威検出のための連合機械学習フレームワークcelest(collaborative learning for scalable threat detection)を提案する。
celestはフェデレーション学習を活用して、データをローカルに保持する複数のクライアント間でグローバルなモデルを協調的にトレーニングすることで、プライバシと機密性を保証する。
フェデレーション学習技術と統合した新たなアクティブラーニングコンポーネントを通じて,新たな,進化的,グローバルに調整されたサイバー脅威の振る舞いを継続的に発見し,学習する。
我々は、CELESTが個々の組織にほとんど見えない攻撃を公開することができることを示した。
例えば、データ消去マルウェアによる1つの挑戦的な攻撃シナリオでは、グローバルモデルは、ローカルモデルと比較して3倍の精度-リコールAUCを達成する。
我々は2つの大学ネットワークにCELESTをデプロイし、高い精度と低い偽陽性率で悪意のあるHTTP通信を検出することができることを示す。
さらに、CELESTはデプロイ中に、これまで知られていなかった42の悪意のあるURLと20の悪意のあるドメインを1日で検出した。
関連論文リスト
- PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - Genetic Algorithm-Based Dynamic Backdoor Attack on Federated
Learning-Based Network Traffic Classification [1.1887808102491482]
本稿では,GABAttackを提案する。GABAttackは,ネットワークトラフィック分類のためのフェデレーション学習に対する新しい遺伝的アルゴリズムに基づくバックドア攻撃である。
この研究は、ネットワークセキュリティの専門家や実践者がこのような攻撃に対して堅牢な防御策を開発するための警告となる。
論文 参考訳(メタデータ) (2023-09-27T14:02:02Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Mitigating Cross-client GANs-based Attack in Federated Learning [78.06700142712353]
マルチ分散マルチメディアクライアントは、グローバル共有モデルの共同学習のために、フェデレートラーニング(FL)を利用することができる。
FLは、GAN(C-GANs)をベースとしたクロスクライアント・ジェネレーティブ・敵ネットワーク(GANs)攻撃に苦しむ。
C-GAN攻撃に抵抗する現在のFLスキームを改善するためのFed-EDKD手法を提案する。
論文 参考訳(メタデータ) (2023-07-25T08:15:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Anomaly Detection via Federated Learning [3.0755847416657613]
本稿では,クライアントサーバ上で悪意あるネットワーク活動を検出するための,フェデレーション学習による新しい異常検出手法を提案する。
FedSamと呼ばれる新しいmin-maxスカラーとサンプリング技術を用いて、フェデレーション学習により、グローバルモデルが各クライアントのデータから学習できると判断した。
論文 参考訳(メタデータ) (2022-10-12T22:40:29Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。