論文の概要: Enhancing Webshell Detection With Deep Learning-Powered Methods
- arxiv url: http://arxiv.org/abs/2412.05532v1
- Date: Sat, 07 Dec 2024 04:26:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:52:17.589214
- Title: Enhancing Webshell Detection With Deep Learning-Powered Methods
- Title(参考訳): 深層学習によるWebshell検出の強化
- Authors: Ha L. Viet, On V. Phung, Hoa N. Nguyen,
- Abstract要約: Webshell攻撃はより一般的になり、Webアプリケーションを保護するために堅牢な検出メカニズムが必要である。
この論文は、シグネチャベースのメソッドとディープラーニングアルゴリズムを使用して、既知のWebシェルと未知のWebシェルを検出する、高度なDLパワーソースコードスキャンフレームワークであるASAFを提案する。
第2に、この論文では、WebアプリケーションのリアルタイムHTTPトラフィック分析を使用して、Webシェルを検出するディープニューラルネットワークが導入されている。
- 参考スコア(独自算出の注目度): 0.6390468088226495
- License:
- Abstract: Webshell attacks are becoming more common, requiring robust detection mechanisms to protect web applications. The dissertation clearly states two research directions: scanning web application source code and analyzing HTTP traffic to detect webshells. First, the dissertation proposes ASAF, an advanced DL-Powered Source-Code Scanning Framework that uses signature-based methods and deep learning algorithms to detect known and unknown webshells. We designed the framework to enable programming language-specific detection models. The dissertation used PHP for interpreted language and ASP.NET for compiled language to build a complete ASAF-based model for experimentation and comparison with other research results to prove its efficacy. Second, the dissertation introduces a deep neural network that detects webshells using real-time HTTP traffic analysis of web applications. The study proposes an algorithm to improve the deep learning model's loss function to address data imbalance. We tested and compared the model to other studies on the CSE-CIC-IDS2018 dataset to prove its efficacy. We integrated the model with NetIDPS to improve webshell identification. Automatically blacklist attack source IPs and block URIs querying webshells on the web server to prevent these attacks.
- Abstract(参考訳): Webshell攻撃はより一般的になり、Webアプリケーションを保護するために堅牢な検出メカニズムが必要である。
この論文には、Webアプリケーションのソースコードをスキャンし、HTTPトラフィックを分析してWebshellを検出するという、2つの研究の方向性が明確に述べられている。
まず、この論文は、シグネチャベースのメソッドとディープラーニングアルゴリズムを使用して、既知のウェブシェルと未知のWebシェルを検出する高度なDLパワーソースコードスキャンフレームワークであるASAFを提案する。
言語固有の検出モデルを実現するためのフレームワークを設計した。
この論文は、インタプリタ言語にPHP、コンパイル言語にASP.NETを使用し、実験と他の研究結果との比較のための完全なASAFベースのモデルを構築し、その有効性を証明した。
第2に、この論文では、WebアプリケーションのリアルタイムHTTPトラフィック分析を使用して、Webシェルを検出するディープニューラルネットワークが導入されている。
本研究では,データ不均衡に対処する深層学習モデルの損失関数を改善するアルゴリズムを提案する。
我々は、CSE-CIC-IDS2018データセットの他の研究と比較し、その効果を実証した。
我々はこのモデルをNetIDPSと統合し、ウェブシェル識別を改善した。
ソースIPを自動的にブラックリスト化し、Webサーバ上のWebシェルにクエリするURIをブロックして、これらの攻撃を防ぐ。
関連論文リスト
- PhishNet: A Phishing Website Detection Tool using XGBoost [1.777434178384403]
PhisNetは最先端のWebアプリケーションで、高度な機械学習を使ってフィッシングサイトを検出するように設計されている。
個人や組織が堅牢なAIフレームワークを通じてフィッシング攻撃を特定し予防することを目的としている。
論文 参考訳(メタデータ) (2024-06-29T21:31:13Z) - AutoScraper: A Progressive Understanding Web Agent for Web Scraper Generation [54.17246674188208]
Webスクレイピングは、Webサイトからデータを抽出し、自動データ収集を可能にし、データ分析機能を強化し、手動のデータ入力作業を最小化する強力なテクニックである。
既存の手法では、ラッパーベースの手法は、新しいウェブサイトで直面する場合、適応性とスケーラビリティの制限に悩まされる。
本稿では,大規模言語モデル(LLM)を用いたWebスクレイパー生成のパラダイムを紹介し,多様なWeb環境をより効率的に処理できる2段階フレームワークであるAutoScraperを提案する。
論文 参考訳(メタデータ) (2024-04-19T09:59:44Z) - Large Language Models are Few-shot Generators: Proposing Hybrid Prompt Algorithm To Generate Webshell Escape Samples [1.6223257916285212]
大規模言語モデルの助けを借りてウェブシェルエスケープサンプル生成のためのHybrid Promptアルゴリズムを提案する。
ウェブシェルサンプル生成用に特別に開発されたプロンプトアルゴリズムとして、Hybrid Promptアルゴリズムは、Chain of Thought、Tree of Thoughtなど様々なプロンプトなアイデアを組み合わせただけでなく、ウェブシェル階層モジュールのような様々なコンポーネントも組み込んでいる。
実験結果から,Hybrid Promptアルゴリズムはコード推論能力に優れ,高品質なウェブシェルサンプルを生成することができることがわかった。
論文 参考訳(メタデータ) (2024-02-12T04:59:58Z) - Neural Embeddings for Web Testing [49.66745368789056]
既存のクローラは、状態等価性を評価するために、アプリ固有のしきい値ベースのアルゴリズムに依存している。
ニューラルネットワークの埋め込みとしきい値のない分類器に基づく新しい抽象関数WEBEMBEDを提案する。
WEBEMBEDは,9つのWebアプリケーションに対する評価の結果,近距離検出により最先端技術よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-06-12T19:59:36Z) - The Web Can Be Your Oyster for Improving Large Language Models [98.72358969495835]
大規模言語モデル(LLM)は、大量の世界の知識を符号化する。
我々はLLMを検索エンジンを用いて大規模ウェブで拡張することを検討する。
ウェブ上に拡張されたLLM UNIWEBを提案する。これは16の知識集約的なタスクに対して、統一されたテキスト・テキスト・フォーマットで訓練される。
論文 参考訳(メタデータ) (2023-05-18T14:20:32Z) - Verifying the Robustness of Automatic Credibility Assessment [50.55687778699995]
入力テキストにおける意味保存的変化がモデルを誤解させる可能性があることを示す。
また、誤情報検出タスクにおける被害者モデルと攻撃方法の両方をテストするベンチマークであるBODEGAについても紹介する。
我々の実験結果によると、現代の大規模言語モデルは、以前のより小さなソリューションよりも攻撃に対して脆弱であることが多い。
論文 参考訳(メタデータ) (2023-03-14T16:11:47Z) - Detecting Cloud-Based Phishing Attacks by Combining Deep Learning Models [0.0]
Webベースのフィッシング攻撃は、今日では人気のクラウドホスティングサービスやGoogle SitesやTypeformなどのアプリを利用して攻撃をホストしている。
本稿では,このクラウドベースのフィッシング攻撃の検出におけるディープラーニングモデルの有効性について検討する。
論文 参考訳(メタデータ) (2022-04-05T18:47:57Z) - A Deep Learning Approach for Ontology Enrichment from Unstructured Text [2.932750332087746]
既存のWeb上の攻撃、コントロール、アドバイザリの情報脆弱性は、セキュリティ分析を表現し、実行する機会を提供する。
自然言語処理とMLモデルに基づくオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
大規模なDBデータセットと2.8GBのウィキペディアコーパスとUniversal Sentenceでトレーニングされた双方向LSTMは、ISOベースの情報セキュリティを強化するためにデプロイされる。
論文 参考訳(メタデータ) (2021-12-16T01:32:21Z) - OntoEnricher: A Deep Learning Approach for Ontology Enrichment from
Unstructured Text [2.707154152696381]
Web上で利用可能な脆弱性、コントロール、アドバイザリに関する既存の情報は、知識を表現し、関心事の一部を緩和するために分析を行う機会を提供する。
これは情報セキュリティの動的かつ自動化された強化を必要とする。
自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
論文 参考訳(メタデータ) (2021-02-08T09:43:05Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。