論文の概要: Forecasting Future DDoS Attacks Using Long Short Term Memory (LSTM) Model
- arxiv url: http://arxiv.org/abs/2509.02076v1
- Date: Tue, 02 Sep 2025 08:26:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.958604
- Title: Forecasting Future DDoS Attacks Using Long Short Term Memory (LSTM) Model
- Title(参考訳): 長期記憶(LSTM)モデルによる将来のDDoS攻撃予測
- Authors: Kong Mun Yeen, Rafidah Md Noor, Wahidah Md Shah, Aslinda Hassan, Muhammad Umair Munir,
- Abstract要約: 本稿では、ディープラーニングモデルを用いて、将来のDistributed Denial of Service(DDoS)攻撃を予測する。
最新のデータセットと更新データセットに基づく現在のトレンドと予測を調べることで、攻撃に対する緩和計画を計画し、定式化することができる。
- 参考スコア(独自算出の注目度): 0.34952465649465553
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper forecasts future Distributed Denial of Service (DDoS) attacks using deep learning models. Although several studies address forecasting DDoS attacks, they remain relatively limited compared to detection-focused research. By studying the current trends and forecasting based on newer and updated datasets, mitigation plans against the attacks can be planned and formulated. The methodology used in this research work conforms to the Cross Industry Standard Process for Data Mining (CRISP-DM) model.
- Abstract(参考訳): 本稿では、ディープラーニングモデルを用いて、将来のDistributed Denial of Service(DDoS)攻撃を予測する。
いくつかの研究はDDoS攻撃の予測に対処しているが、検出に焦点を絞った研究に比べれば比較的限定的である。
最新のデータセットと更新データセットに基づく現在のトレンドと予測を調べることで、攻撃に対する緩和計画を計画し、定式化することができる。
この研究で使用される方法論は、CRISP-DM(Cross Industry Standard Process for Data Mining)モデルに準拠している。
関連論文リスト
- On Transfer-based Universal Attacks in Pure Black-box Setting [94.92884394009288]
攻撃性能における対象モデルデータの事前知識とクラス数の役割について検討する。
また、分析に基づいていくつかの興味深い洞察を与え、先行が伝達可能性スコアの過大評価を引き起こすことを示した。
論文 参考訳(メタデータ) (2025-04-11T10:41:20Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - F-FOMAML: GNN-Enhanced Meta-Learning for Peak Period Demand Forecasting with Proxy Data [65.6499834212641]
本稿では,需要予測をメタラーニング問題として定式化し,F-FOMAMLアルゴリズムを開発した。
タスク固有のメタデータを通してドメインの類似性を考慮することにより、トレーニングタスクの数が増加するにつれて過剰なリスクが減少する一般化を改善した。
従来の最先端モデルと比較して,本手法では需要予測精度が著しく向上し,内部自動販売機データセットでは平均絶対誤差が26.24%,JD.comデータセットでは1.04%削減された。
論文 参考訳(メタデータ) (2024-06-23T21:28:50Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Reconstruction-based LSTM-Autoencoder for Anomaly-based DDoS Attack
Detection over Multivariate Time-Series Data [6.642599588462097]
DDoS(Distributed Denial-of-Service)攻撃は、ターゲットとするサーバやサービス、あるいはネットワークの通常のトラフィックを破壊しようとする悪意のある試みである。
従来の統計的および浅層機械学習技術は、浅層データと特徴選択に基づいて表面異常を検出することができるが、これらの手法は見えないDDoS攻撃を検出することはできない。
本稿では,LSTM-Autoencoder (LSTM-AE) と名づけられた再構築型異常検出モデルを提案する。
論文 参考訳(メタデータ) (2023-04-21T03:56:03Z) - Targeted Attacks on Timeseries Forecasting [0.6719751155411076]
本稿では,時系列予測モデルに対する指向性,振幅性,時間的標的攻撃の新たな定式化を提案する。
これらの攻撃は、出力予測の振幅と方向に特定の影響を与える。
実験結果から,時系列モデルに対する標的攻撃が有効であり,統計的類似性の観点からもより強力であることが示唆された。
論文 参考訳(メタデータ) (2023-01-27T06:09:42Z) - Adversarial attacks against Bayesian forecasting dynamic models [1.8275108630751844]
AMLは、不正な推論エンジンにデータを操作する方法を研究している。
本稿では,ベイズ予測力学モデルに対する決定分析に基づく攻撃戦略を提案する。
論文 参考訳(メタデータ) (2021-10-20T21:23:45Z) - A Deep Marginal-Contrastive Defense against Adversarial Attacks on 1D
Models [3.9962751777898955]
ディープラーニングアルゴリズムは最近、脆弱性のために攻撃者がターゲットとしている。
非連続的深層モデルは、いまだに敵対的な攻撃に対して頑健ではない。
本稿では,特徴を特定のマージン下に置くことによって予測を容易にする新しい目的/損失関数を提案する。
論文 参考訳(メタデータ) (2020-12-08T20:51:43Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Boosting Black-Box Attack with Partially Transferred Conditional
Adversarial Distribution [83.02632136860976]
深層ニューラルネットワーク(DNN)に対するブラックボックス攻撃の研究
我々は, 代理バイアスに対して頑健な, 対向移動可能性の新たなメカニズムを開発する。
ベンチマークデータセットの実験と実世界のAPIに対する攻撃は、提案手法の優れた攻撃性能を示す。
論文 参考訳(メタデータ) (2020-06-15T16:45:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。