論文の概要: TransURL: Improving malicious URL detection with multi-layer Transformer encoding and multi-scale pyramid features
- arxiv url: http://arxiv.org/abs/2312.00508v3
- Date: Fri, 21 Mar 2025 13:48:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 15:40:09.590597
- Title: TransURL: Improving malicious URL detection with multi-layer Transformer encoding and multi-scale pyramid features
- Title(参考訳): TransURL: マルチレイヤトランスフォーマーエンコーディングとマルチスケールピラミッド機能による悪意のあるURL検出の改善
- Authors: Ruitong Liu, Yanbin Wang, Zhenhao Guo, Haitao Xu, Zhan Qin, Wenrui Ma, Fan Zhang,
- Abstract要約: 本稿では,悪意のあるURL検出のための新しい手法であるTransURLを提案する。
この方法は、3つの特徴モジュールで文字認識変換器を協調訓練することで実現される。
実験の結果, 従来の方法と比較して有意な改善が認められた。
- 参考スコア(独自算出の注目度): 9.873643699502853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning progress is advancing the detection of malicious URLs. However, advanced Transformers applied to URLs face difficulties in extracting local information, character-level details, and structural relationships. To address these challenges, we propose a novel approach for malicious URL detection, named TransURL. This method is implemented by co-training the character-aware Transformer with three feature modules: Multi-Layer Encoding, Multi-Scale Feature Learning, and Spatial Pyramid Attention. This specialized Transformer enables TransURL to extract embeddings with character-level information from URL token sequences, with the three modules aiding the fusion of multi-layer Transformer encodings and the capture of multi-scale local details and structural relationships. The proposed method is evaluated across several challenging scenarios, including class imbalance learning, multi-classification, cross-dataset testing, and adversarial sample attacks. Experimental results demonstrate a significant improvement compared to previous methods. For instance, it achieved a peak F1-score improvement of 40% in class-imbalanced scenarios and surpassed the best baseline by 14.13% in accuracy for adversarial attack scenarios. Additionally, a case study demonstrated that our method accurately identified all 30 active malicious web pages, whereas two previous state-of-the-art methods missed 4 and 7 malicious web pages, respectively. The codes and data are available at: https://github.com/Vul-det/TransURL/.
- Abstract(参考訳): 機械学習の進歩により、悪意のあるURLの検出が進んでいる。
しかし、URLに適用された高度なトランスフォーマーは、ローカル情報、文字レベルの詳細、構造的関係の抽出に困難に直面している。
これらの課題に対処するために、悪意のあるURL検出のための新しいアプローチであるTransURLを提案する。
本手法は,多層符号化,マルチスケール特徴学習,空間ピラミッド注意という3つの特徴モジュールで文字認識変換器を協調訓練することにより実現される。
この特殊なTransformerは、URLトークンシーケンスから文字レベルの情報を含む埋め込みを抽出し、多層トランスフォーマーエンコーディングの融合を支援し、マルチスケールのローカル詳細と構造的関係をキャプチャする。
提案手法は, クラス不均衡学習, マルチクラス化, クロスデータセットテスト, 対向サンプル攻撃など, 難易度の高いシナリオで評価される。
実験の結果, 従来の方法と比較して有意な改善が認められた。
例えば、クラス不均衡のシナリオでは最大40%のF1スコア向上を達成し、敵の攻撃シナリオでは14.13%の精度で最高のベースラインを突破した。
さらに,本手法は,30のアクティブなWebページを正確に識別するのに対し,従来手法では4ページと7ページが欠落していた。
コードとデータは、https://github.com/Vul-det/TransURL/.comで公開されている。
関連論文リスト
- Efficient Phishing URL Detection Using Graph-based Machine Learning and Loopy Belief Propagation [12.89058029173131]
フィッシングURL検出のためのグラフベース機械学習モデルを提案する。
我々は、IPアドレスや権威名サーバのようなURL構造とネットワークレベルの機能を統合する。
実世界のデータセットの実験は、F1スコアを98.77%まで達成することで、我々のモデルの有効性を実証している。
論文 参考訳(メタデータ) (2025-01-12T19:49:00Z) - Dual-Path Adversarial Lifting for Domain Shift Correction in Online Test-time Adaptation [59.18151483767509]
テスト時間適応におけるドメインシフト補正のためのデュアルパストークンリフトを導入する。
次に、インターリーブされたトークン予測とドメインシフトトークンのパスとクラストークンのパスの間の更新を行う。
評価実験の結果,提案手法はオンライン完全テスト時間領域適応性能を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2024-08-26T02:33:47Z) - Few-Shot API Attack Detection: Overcoming Data Scarcity with GAN-Inspired Learning [9.035212370386846]
本稿では,NLP(Natural Language Processing)とGAN(Generative Adrialversa Network)にインスパイアされた新たな手法を提案する。
提案手法では,API要求の文脈的理解が向上し,従来の手法と比較して異常検出が改善された。
論文 参考訳(メタデータ) (2024-05-18T11:10:45Z) - AntiPhishStack: LSTM-based Stacked Generalization Model for Optimized
Phishing URL Detection [0.32141666878560626]
本稿では,フィッシングサイトを検出するための2相スタック一般化モデルであるAntiPhishStackを提案する。
このモデルは、URLと文字レベルのTF-IDF特徴の学習を対称的に活用し、新たなフィッシング脅威に対処する能力を高める。
良性およびフィッシングまたは悪意のあるURLを含む2つのベンチマークデータセットに対する実験的検証は、既存の研究と比較して96.04%の精度で、このモデルの例外的な性能を示している。
論文 参考訳(メタデータ) (2024-01-17T03:44:27Z) - Malicious URL Detection via Pretrained Language Model Guided Multi-Level Feature Attention Network [15.888763097896339]
本稿では、悪質なURL検出のための効率的な事前学習モデルベースのフレームワークを提案する。
階層的特徴抽出,層認識型注意,空間ピラミッドプールの3つの重要なモジュールを開発した。
提案手法は複数の公開データセットに対して広範囲に検証されている。
論文 参考訳(メタデータ) (2023-11-21T06:23:08Z) - In-Context Convergence of Transformers [63.04956160537308]
勾配降下法により訓練したソフトマックスアテンションを有する一層変圧器の学習力学について検討した。
不均衡な特徴を持つデータに対しては、学習力学が段階的に収束する過程をとることを示す。
論文 参考訳(メタデータ) (2023-10-08T17:55:33Z) - Meta-Transformer: A Unified Framework for Multimodal Learning [105.77219833997962]
マルチモーダル学習は、複数のモーダルからの情報を処理し、関連付けるモデルを構築することを目的としている。
この分野での長年の開発にもかかわらず、様々なモダリティを処理する統一ネットワークを設計することは依然として困難である。
我々は、textbffrozen$ encoderを利用してマルチモーダル認識を行うMeta-Transformerというフレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-20T12:10:29Z) - Transformers for End-to-End InfoSec Tasks: A Feasibility Study [6.847381178288385]
私たちは2つの異なるInfoSecデータフォーマット、特にURLとPEファイルに対してトランスフォーマーモデルを実装します。
URLトランスフォーマーモデルは、高いパフォーマンスレベルに達するためには、異なるトレーニングアプローチが必要です。
提案手法は,PEファイルのベンチマークデータセット上で,確立されたマルウェア検出モデルに相容れない性能を示す。
論文 参考訳(メタデータ) (2022-12-05T23:50:46Z) - Backdoor Attacks for Remote Sensing Data with Wavelet Transform [14.50261153230204]
本稿では,リモートセンシングデータに対するバックドア攻撃の系統的解析を行う。
そこで本研究では, 有害画像にトリガ画像を注入することで, 目に見えない攻撃を可能にする新しいウェーブレット変換ベースアタック(WABA)手法を提案する。
その単純さにもかかわらず、提案手法は攻撃成功率の高い最先端のディープラーニングモデルをかなり騙すことができる。
論文 参考訳(メタデータ) (2022-11-15T10:49:49Z) - The Devil is in the Details: On Models and Training Regimes for Few-Shot
Intent Classification [81.60168035505039]
Few-shot Classification (FSIC) は、モジュラータスク指向の対話システムにおいて重要な課題の1つである。
クロスエンコーダアーキテクチャとエピソードメタラーニングがFSICの最高の性能をもたらすことを示す。
本研究は,FSICにおける最先端研究の実施の道筋をたどるものである。
論文 参考訳(メタデータ) (2022-10-12T17:37:54Z) - Focused Decoding Enables 3D Anatomical Detection by Transformers [64.36530874341666]
集束デコーダと呼ばれる3次元解剖学的構造検出のための新しい検出変換器を提案する。
Focused Decoderは、解剖学的領域のアトラスからの情報を活用して、クエリアンカーを同時にデプロイし、クロスアテンションの視野を制限する。
提案手法を利用可能な2つのCTデータセットに対して評価し、フォーカスドデコーダが強力な検出結果を提供するだけでなく、大量の注釈付きデータの必要性を軽減し、注意重みによる結果の例外的で直感的な説明性を示すことを示した。
論文 参考訳(メタデータ) (2022-07-21T22:17:21Z) - Defect Transformer: An Efficient Hybrid Transformer Architecture for
Surface Defect Detection [2.0999222360659604]
表面欠陥検出のための効率的なハイブリッドトランスアーキテクチャであるDefect Transformer (DefT)を提案する。
DefTはCNNとTransformerを統一モデルに組み込んで、局所的および非局所的関係を協調的にキャプチャする。
3つのデータセットの実験は、他のCNNやトランスフォーマーベースのネットワークと比較して、我々の手法の優位性と効率性を実証している。
論文 参考訳(メタデータ) (2022-07-17T23:37:48Z) - Dual Vision Transformer [114.1062057736447]
デュアルビジョントランス(Dual-ViT)という,コスト問題を緩和する新しいトランスフォーマーアーキテクチャを提案する。
新しいアーキテクチャでは、トークンベクトルをより効率的にグローバルなセマンティックスに圧縮し、複雑さの順序を減らし、重要なセマンティックパスが組み込まれている。
我々は、Dual-ViTが訓練の複雑さを低減したSOTAトランスフォーマーアーキテクチャよりも優れた精度を提供することを実証的に実証した。
論文 参考訳(メタデータ) (2022-07-11T16:03:44Z) - Pushing the Limits of Simple Pipelines for Few-Shot Learning: External
Data and Fine-Tuning Make a Difference [74.80730361332711]
コンピュータビジョンにおいて、ほとんどショット学習は重要かつトピック的な問題である。
単純なトランスフォーマーベースのパイプラインは、標準ベンチマークで驚くほど優れたパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2022-04-15T02:55:58Z) - MDMMT-2: Multidomain Multimodal Transformer for Video Retrieval, One
More Step Towards Generalization [65.09758931804478]
3つの異なるデータソースが組み合わさっている: 弱教師付きビデオ、クラウドラベル付きテキストイメージペア、テキストビデオペア。
利用可能な事前学習ネットワークの慎重な分析は、最高の事前学習ネットワークを選択するのに役立つ。
論文 参考訳(メタデータ) (2022-03-14T13:15:09Z) - Visual Transformer for Task-aware Active Learning [49.903358393660724]
プールベースのアクティブラーニングのための新しいパイプラインを提案する。
提案手法は,学習中に使用可能なアンラベリング例を利用して,ラベル付き例との相関関係を推定する。
ビジュアルトランスフォーマーは、ラベル付き例と非ラベル付き例の間の非ローカルビジュアル概念依存性をモデル化する。
論文 参考訳(メタデータ) (2021-06-07T17:13:59Z) - DoS and DDoS Mitigation Using Variational Autoencoders [15.23225419183423]
我々は、インテリジェントなセキュリティソリューション内のコンポーネントとして機能する変分オートエンコーダの可能性を探る。
ネットワークトラフィックフローから潜在表現を学習する変分オートエンコーダの能力に基づく2つの手法を提案する。
論文 参考訳(メタデータ) (2021-05-14T15:38:40Z) - Spatiotemporal Transformer for Video-based Person Re-identification [102.58619642363958]
我々は、強い学習能力にもかかわらず、バニラトランスフォーマーは過剰フィットのリスクの増加に苦しむことを示しています。
そこで本研究では,合成ビデオデータからモデルを事前学習し,下流領域に伝達する新しいパイプラインを提案する。
提案アルゴリズムは,3つの人気ビデオベース人物識別ベンチマークにおいて,精度向上を実現する。
論文 参考訳(メタデータ) (2021-03-30T16:19:27Z) - Transformers Solve the Limited Receptive Field for Monocular Depth
Prediction [82.90445525977904]
畳み込みニューラルネットワークとトランスの両方の恩恵を受けるアーキテクチャであるTransDepthを提案します。
連続ラベルを含む画素単位での予測問題にトランスフォーマーを適用する最初の論文である。
論文 参考訳(メタデータ) (2021-03-22T18:00:13Z) - Training Transformers for Information Security Tasks: A Case Study on
Malicious URL Prediction [3.660098145214466]
私たちは、スクラッチからトレーニングされたトランスフォーマーアーキテクチャに基づいて、悪意のある/良性のある予測URLを実装します。
従来の自然言語処理(NLP)変換器とは対照的に,このモデルは動作に異なるトレーニングアプローチを必要とする。
論文 参考訳(メタデータ) (2020-11-05T18:58:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。