論文の概要: Cerberus: Exploring Federated Prediction of Security Events
- arxiv url: http://arxiv.org/abs/2209.03050v1
- Date: Wed, 7 Sep 2022 10:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:56:47.825142
- Title: Cerberus: Exploring Federated Prediction of Security Events
- Title(参考訳): Cerberus: セキュリティイベントのフェデレーション予測を探る
- Authors: Mohammad Naseri, Yufei Han, Enrico Mariconti, Yun Shen, Gianluca
Stringhini, Emiliano De Cristofaro
- Abstract要約: フェデレートラーニング(FL)による将来のセキュリティイベントの予測の可能性について検討する。
我々は、参加する組織に対して、リカレントニューラルネットワーク(RNN)モデルの協調トレーニングを可能にするシステムであるCerberusを紹介する。
- 参考スコア(独自算出の注目度): 21.261584854569893
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern defenses against cyberattacks increasingly rely on proactive
approaches, e.g., to predict the adversary's next actions based on past events.
Building accurate prediction models requires knowledge from many organizations;
alas, this entails disclosing sensitive information, such as network
structures, security postures, and policies, which might often be undesirable
or outright impossible. In this paper, we explore the feasibility of using
Federated Learning (FL) to predict future security events. To this end, we
introduce Cerberus, a system enabling collaborative training of Recurrent
Neural Network (RNN) models for participating organizations. The intuition is
that FL could potentially offer a middle-ground between the non-private
approach where the training data is pooled at a central server and the
low-utility alternative of only training local models. We instantiate Cerberus
on a dataset obtained from a major security company's intrusion prevention
product and evaluate it vis-a-vis utility, robustness, and privacy, as well as
how participants contribute to and benefit from the system. Overall, our work
sheds light on both the positive aspects and the challenges of using FL for
this task and paves the way for deploying federated approaches to predictive
security.
- Abstract(参考訳): サイバー攻撃に対する現代の防御は、例えば、過去の出来事に基づいた敵の次の行動を予測するために、積極的なアプローチにますます依存している。
残念なことに、ネットワーク構造やセキュリティ姿勢、ポリシーといった、望ましくない、あるいはまったく不可能な機密情報を開示する必要がある。
本稿では,フェデレーション学習(fl)を用いた将来のセキュリティイベントの予測の可能性について検討する。
この目的のために,参加組織を対象としたリカレントニューラルネットワーク(RNN)モデルの協調トレーニングを可能にするシステムであるCerberusを紹介する。
FLは、トレーニングデータを中央サーバーにプールする非プライベートアプローチと、ローカルモデルのみをトレーニングする低ユーティリティな代替手段の中間部分を提供する可能性がある。
我々は,大手セキュリティ企業の侵入防止製品から得られたデータセット上でcerberusをインスタンス化し,vis-a-visユーティリティ,堅牢性,プライバシ,およびシステムへの参加者の貢献とメリットを評価する。
全体として、このタスクにFLを使うことのメリットと課題の両方に光を当て、予測セキュリティにフェデレートされたアプローチをデプロイする方法を舗装しています。
関連論文リスト
- Edge-Only Universal Adversarial Attacks in Distributed Learning [49.546479320670464]
本研究では,攻撃者がモデルのエッジ部分のみにアクセスした場合に,ユニバーサルな敵攻撃を発生させる可能性について検討する。
提案手法は, エッジ側の重要な特徴を活用することで, 未知のクラウド部分において, 効果的な誤予測を誘導できることを示唆する。
ImageNetの結果は、未知のクラウド部分に対する強力な攻撃伝達性を示している。
論文 参考訳(メタデータ) (2024-11-15T11:06:24Z) - Trustworthy Federated Learning: Privacy, Security, and Beyond [37.495790989584584]
Federated Learning (FL)は、生データを転送することなく、分散データソース間で協調的なモデルトレーニングを促進することで、問題に対処する。
FLが抱えるセキュリティとプライバシに関する広範な調査を行い、通信リンクの脆弱性とサイバー脅威の可能性を明らかにします。
FLフレームワーク内で発生する複雑なセキュリティ課題を特定し、セキュアで効率的なFLシステムの開発に寄与することを目的としている。
論文 参考訳(メタデータ) (2024-11-03T14:18:01Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Challenges and approaches for mitigating byzantine attacks in federated
learning [6.836162272841266]
フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
論文 参考訳(メタデータ) (2021-12-29T09:24:05Z) - Certifiers Make Neural Networks Vulnerable to Availability Attacks [70.69104148250614]
私たちは初めて、逆転戦略が敵によって意図的に引き起こされる可能性があることを示します。
いくつかの入力や摂動のために自然に発生する障害に加えて、敵は故意にフォールバックを誘発するために訓練時間攻撃を使用することができる。
我々は2つの新しいアベイラビリティーアタックを設計し、これらの脅威の実用的妥当性を示す。
論文 参考訳(メタデータ) (2021-08-25T15:49:10Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。