論文の概要: Cyber Threat Intelligence for Secure Smart City
- arxiv url: http://arxiv.org/abs/2007.13233v1
- Date: Sun, 26 Jul 2020 22:39:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 20:12:49.823170
- Title: Cyber Threat Intelligence for Secure Smart City
- Title(参考訳): セキュアなスマートシティのためのサイバー脅威インテリジェンス
- Authors: Najla Al-Taleb, Nazar Abbas Saqib, Atta-ur-Rahman, Sujata Dash
- Abstract要約: 本研究は,サイバー脅威インテリジェンス(CTI)のためのハイブリッドディープラーニング(DL)モデルを提案する。
QRNNを使ってリアルタイムの脅威分類モデルを提供する。
- 参考スコア(独自算出の注目度): 1.1470070927586016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Smart city improved the quality of life for the citizens by implementing
information communication technology (ICT) such as the internet of things
(IoT). Nevertheless, the smart city is a critical environment that needs to
secure it is network and data from intrusions and attacks. This work proposes a
hybrid deep learning (DL) model for cyber threat intelligence (CTI) to improve
threats classification performance based on convolutional neural network (CNN)
and quasi-recurrent neural network (QRNN). We use QRNN to provide a real-time
threat classification model. The evaluation results of the proposed model
compared to the state-of-the-art models show that the proposed model
outperformed the other models. Therefore, it will help in classifying the smart
city threats in a reasonable time.
- Abstract(参考訳): スマートシティは、モノのインターネット(IoT)のような情報通信技術(ICT)を実装することで、市民の生活の質を改善した。
それでもスマートシティは、ネットワークと侵入や攻撃からのデータをセキュアにする必要がある重要な環境です。
本研究では,畳み込みニューラルネットワーク(cnn)と準リカレントニューラルネットワーク(qrnn)に基づく脅威分類性能を改善するために,サイバー脅威インテリジェンス(cti)のためのハイブリッド深層学習モデルを提案する。
QRNNを使ってリアルタイムの脅威分類モデルを提供する。
提案モデルと最先端モデルを比較した評価結果から,提案モデルは他のモデルよりも優れていた。
したがって、スマートシティの脅威を合理的な時間内に分類するのに役立ちます。
関連論文リスト
- Cyber Knowledge Completion Using Large Language Models [1.4883782513177093]
IoT(Internet of Things)をCPS(Cyber-Physical Systems)に統合することで,サイバー攻撃面が拡大した。
CPSのリスクを評価することは、不完全で時代遅れのサイバーセキュリティ知識のため、ますます困難になっている。
近年のLarge Language Models (LLMs) の進歩は、サイバー攻撃による知識の完成を促進するユニークな機会となる。
論文 参考訳(メタデータ) (2024-09-24T15:20:39Z) - Towards Efficient Formal Verification of Spiking Neural Network [2.771933807499954]
スパイクニューラルネットワーク(SNN)は、人間の脳のようにイベント駆動で、時間的に情報を圧縮する。
本稿では,SNNの対角的ロバスト性を検証するために,時間符号化を導入する。
論文 参考訳(メタデータ) (2024-08-20T14:43:33Z) - KGV: Integrating Large Language Models with Knowledge Graphs for Cyber Threat Intelligence Credibility Assessment [38.312774244521]
本稿では,CTI(Cyber Threat Intelligence)品質評価フレームワークの知識グラフに基づく検証手法を提案する。
提案手法では,検証対象のOSCTIキークレームを自動的に抽出するLarge Language Models (LLM)を導入している。
研究分野のギャップを埋めるために、異種情報源からの脅威情報評価のための最初のデータセットを作成し、公開しました。
論文 参考訳(メタデータ) (2024-08-15T11:32:46Z) - A Synergistic Approach In Network Intrusion Detection By Neurosymbolic AI [6.315966022962632]
本稿では,ニューロシンボリック人工知能(NSAI)をネットワーク侵入検知システム(NIDS)に組み込む可能性について検討する。
NSAIは、ディープラーニングのデータ駆動の強みと、象徴的なAIの論理的推論を組み合わせて、サイバーセキュリティにおける動的な課題に取り組む。
NIDSにNSAIを組み込むことは、複雑なネットワーク脅威の検出と解釈の両方において、潜在的な進歩を示す。
論文 参考訳(メタデータ) (2024-06-03T02:24:01Z) - GAN-GRID: A Novel Generative Attack on Smart Grid Stability Prediction [53.2306792009435]
我々は,現実の制約に合わせたスマートグリッドの安定性予測システムを対象とした,新たな敵攻撃GAN-GRIDを提案する。
以上の結果から,データやモデル知識を欠いた,安定度モデルのみに武装した敵が,攻撃成功率0.99の安定度でデータを作成できることが判明した。
論文 参考訳(メタデータ) (2024-05-20T14:43:46Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Large Language Models Empowered Autonomous Edge AI for Connected
Intelligence [51.269276328087855]
エッジ人工知能(Edge AI)は、コネクテッドインテリジェンスを実現するための有望なソリューションである。
この記事では、ユーザのさまざまな要件を満たすために自動的に組織化し、適応し、最適化する、自律的なエッジAIシステムのビジョンを示す。
論文 参考訳(メタデータ) (2023-07-06T05:16:55Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - EvilModel 2.0: Hiding Malware Inside of Neural Network Models [7.060465882091837]
ニューラルネットワークモデルをステゴマルウェアに変えることは、AIの悪意ある使用である。
既存の手法では、マルウェアの埋め込み率が低く、モデルの性能に高い影響を与える。
本稿では,高容量かつサービス品質の劣化のないモデルにマルウェアを埋め込む新しい方法を提案する。
論文 参考訳(メタデータ) (2021-09-09T15:31:33Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - On the benefits of robust models in modulation recognition [53.391095789289736]
畳み込み層を用いたディープニューラルネットワーク(DNN)は、通信における多くのタスクにおいて最先端である。
画像分類のような他の領域では、DNNは敵の摂動に弱いことが示されている。
最新モデルの堅牢性をテストするための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-27T19:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。