論文の概要: Challenges in Forecasting Malicious Events from Incomplete Data
- arxiv url: http://arxiv.org/abs/2004.04597v1
- Date: Mon, 6 Apr 2020 22:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-16 06:19:14.945741
- Title: Challenges in Forecasting Malicious Events from Incomplete Data
- Title(参考訳): 不完全データから悪意事象を予測する上での課題
- Authors: Nazgol Tavabi, Andr\'es Abeliuk, Negar Mokhberian, Jeremy Abramson,
Kristina Lerman
- Abstract要約: 研究者たちは、外部データと機械学習アルゴリズムを組み合わせて、差し迫ったサイバー攻撃の指標を学習しようと試みている。
しかし、サイバー攻撃が成功したことは、攻撃未遂のごくわずかだ。
本稿では,サイバー攻撃の予測可能性を低減するため,フィルタリングのプロセスについて述べる。
- 参考スコア(独自算出の注目度): 6.656003516101928
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The ability to accurately predict cyber-attacks would enable organizations to
mitigate their growing threat and avert the financial losses and disruptions
they cause. But how predictable are cyber-attacks? Researchers have attempted
to combine external data -- ranging from vulnerability disclosures to
discussions on Twitter and the darkweb -- with machine learning algorithms to
learn indicators of impending cyber-attacks. However, successful cyber-attacks
represent a tiny fraction of all attempted attacks: the vast majority are
stopped, or filtered by the security appliances deployed at the target. As we
show in this paper, the process of filtering reduces the predictability of
cyber-attacks. The small number of attacks that do penetrate the target's
defenses follow a different generative process compared to the whole data which
is much harder to learn for predictive models. This could be caused by the fact
that the resulting time series also depends on the filtering process in
addition to all the different factors that the original time series depended
on. We empirically quantify the loss of predictability due to filtering using
real-world data from two organizations. Our work identifies the limits to
forecasting cyber-attacks from highly filtered data.
- Abstract(参考訳): サイバー攻撃を正確に予測できる能力により、組織は拡大する脅威を軽減し、彼らが引き起こす金銭的損失や混乱を回避できる。
しかし、サイバー攻撃はどの程度予測可能か?
研究者たちは、脆弱性開示からTwitterやダークウェブでの議論まで、外部データを機械学習アルゴリズムと組み合わせて、サイバー攻撃の差し迫った指標を学習しようと試みている。
しかし、成功したサイバー攻撃は、攻撃未遂のごく一部を表しており、大多数は停止されるか、ターゲットに配備されたセキュリティ機器によってフィルタリングされる。
本稿では,サイバー攻撃の予測可能性を低減するため,フィルタリングのプロセスについて述べる。
ターゲットの防御に侵入する少数の攻撃は、予測モデルを学ぶのがはるかに困難であるデータ全体と比較して、異なる生成過程を辿る。
これは、元の時系列が依存するすべての異なる要因に加えて、結果の時系列がフィルタリングプロセスにも依存しているという事実によって引き起こされる可能性がある。
2つの組織による実世界データを用いたフィルタリングによる予測可能性の損失を実証的に定量化する。
我々の研究は、高度にフィルタリングされたデータからサイバー攻撃を予測する限界を特定する。
関連論文リスト
- Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - algoXSSF: Detection and analysis of cross-site request forgery (XSRF) and cross-site scripting (XSS) attacks via Machine learning algorithms [5.592394503914489]
新しい技術と強力なアルゴリズムの組み合わせは、Webのセキュリティを守るために必要です。
継続的改善を伴うサイバートレンドとパターンの容易な識別は、機械学習とAIアルゴリズムのエッジ内で可能である。
我々は、悪意ある攻撃に対抗するために機械学習アルゴリズムを組み込んだアルゴリズムとサイバー防御フレームワーク、algoXSSFを開発した。
論文 参考訳(メタデータ) (2024-02-01T20:54:41Z) - Use of Graph Neural Networks in Aiding Defensive Cyber Operations [2.1874189959020427]
グラフニューラルネットワークは、防御対策の有効性を高めるための有望なアプローチとして登場した。
我々は、最も有名な攻撃ライフサイクルの1つ、ロッキード・マーティン・サイバーキル・チェーンのそれぞれのステージを壊すのに役立つGNNの応用について検討する。
論文 参考訳(メタデータ) (2024-01-11T05:56:29Z) - Graph Mining for Cybersecurity: A Survey [61.505995908021525]
マルウェア、スパム、侵入などのサイバー攻撃の爆発的な増加は、社会に深刻な影響をもたらした。
従来の機械学習(ML)ベースの手法は、サイバー脅威の検出に広く用いられているが、現実のサイバーエンティティ間の相関をモデル化することはほとんどない。
グラフマイニング技術の普及に伴い、サイバーエンティティ間の相関を捉え、高いパフォーマンスを達成するために、多くの研究者がこれらの手法を調査した。
論文 参考訳(メタデータ) (2023-04-02T08:43:03Z) - Efficient and Low Overhead Website Fingerprinting Attacks and Defenses
based on TCP/IP Traffic [16.6602652644935]
機械学習とディープラーニングに基づくWebサイトのフィンガープリント攻撃は、攻撃率の良好なパフォーマンスを達成するために最も典型的な特徴を使用する傾向がある。
このような攻撃に対して、高コストのネットワークオーバーヘッドでランダムパケット防御(RPD)を適用するのが一般的である。
本稿では、TCP/IPトラフィックの統計的特性を用いて、入射雑音を除去できるRFDに対するフィルタ支援攻撃を提案する。
トラフィック分割機構によってリストベースの防御をさらに改善し、上記の攻撃と戦うことができ、ネットワークオーバーヘッドをかなり節約することができる。
論文 参考訳(メタデータ) (2023-02-27T13:45:15Z) - Fixed Points in Cyber Space: Rethinking Optimal Evasion Attacks in the
Age of AI-NIDS [70.60975663021952]
ネットワーク分類器に対するブラックボックス攻撃について検討する。
我々は、アタッカー・ディフェンダーの固定点がそれ自体、複雑な位相遷移を持つ一般サムゲームであると主張する。
攻撃防御力学の研究には連続的な学習手法が必要であることを示す。
論文 参考訳(メタデータ) (2021-11-23T23:42:16Z) - Are socially-aware trajectory prediction models really socially-aware? [75.36961426916639]
我々は,予測モデルの社会的理解を評価するために,社会的に意図された攻撃を導入する。
攻撃は、予測器を失敗させるため、小さなが慎重に構成された摂動である。
我々の攻撃は、最先端モデルの社会的理解を高めるために有効であることを示す。
論文 参考訳(メタデータ) (2021-08-24T17:59:09Z) - Generating Cyber Threat Intelligence to Discover Potential Security
Threats Using Classification and Topic Modeling [6.0897744845912865]
サイバー脅威インテリジェンス(CTI)は、能動的かつ堅牢なメカニズムの1つとして表現されている。
我々のゴールは、異なる教師なしおよび教師なしの学習技術を用いて、ハッカーフォーラムから関連するCTIを特定し、探索することである。
論文 参考訳(メタデータ) (2021-08-16T02:30:29Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z) - Subpopulation Data Poisoning Attacks [18.830579299974072]
機械学習に対する攻撃は、機械学習アルゴリズムが使用するデータの逆修正を誘導し、デプロイ時に出力を選択的に変更する。
本研究では,エフェサブポピュレーションアタック(emphsubpopulation attack)と呼ばれる新たなデータ中毒攻撃を導入する。
サブポピュレーション攻撃のためのモジュラーフレームワークを設計し、異なるビルディングブロックでインスタンス化し、その攻撃がさまざまなデータセットや機械学習モデルに有効であることを示す。
論文 参考訳(メタデータ) (2020-06-24T20:20:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。