論文の概要: A Transformer-based Model to Detect Phishing URLs
- arxiv url: http://arxiv.org/abs/2109.02138v1
- Date: Sun, 5 Sep 2021 18:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-07 17:27:35.720360
- Title: A Transformer-based Model to Detect Phishing URLs
- Title(参考訳): フィッシングURL検出のためのトランスフォーマーベースモデル
- Authors: Pingfan Xu
- Abstract要約: 悪意のあるURL検出は依然として研究ホットスポットであり、攻撃者は戦術を変更して新たに導入された検出メカニズムをバイパスすることができる。
本稿では,トランスを用いた悪質なURL検出モデルを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Phishing attacks are among emerging security issues that recently draws
significant attention in the cyber security community. There are numerous
existing approaches for phishing URL detection. However, malicious URL
detection is still a research hotspot because attackers can bypass newly
introduced detection mechanisms by changing their tactics. This paper will
introduce a transformer-based malicious URL detection model, which has
significant accuracy and outperforms current detection methods. We conduct
experiments and compare them with six existing classical detection models.
Experiments demonstrate that our transformer-based model is the best performing
model from all perspectives among the seven models and achieves 97.3 % of
detection accuracy.
- Abstract(参考訳): フィッシング攻撃は、最近サイバーセキュリティコミュニティで大きな注目を集めているセキュリティ問題の1つだ。
フィッシングURL検出には数多くのアプローチがある。
しかし、攻撃者は新たな検出メカニズムを回避できるため、悪意のあるURL検出は依然として研究ホットスポットである。
本稿では,現在検出手法に匹敵する精度と精度を有する,トランスフォーマによる悪質なurl検出モデルを提案する。
実験を行い、既存の6つの古典的検出モデルと比較する。
実験により, トランスフォーマーモデルが最も優れたモデルであり, 検出精度は97.3%であることがわかった。
関連論文リスト
- Backdoor Attack against One-Class Sequential Anomaly Detection Models [10.020488631167204]
そこで我々は,新たなバックドア攻撃戦略を提案することによって,深部連続異常検出モデルを提案する。
攻撃アプローチは2つの主要なステップ、トリガー生成とバックドアインジェクションから構成される。
2つの確立された1クラスの異常検出モデルにバックドアを注入することにより,提案手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-02-15T19:19:54Z) - AntiPhishStack: LSTM-based Stacked Generalization Model for Optimized
Phishing URL Detection [0.32141666878560626]
本稿では,フィッシングサイトを検出するための2相スタック一般化モデルであるAntiPhishStackを提案する。
このモデルは、URLと文字レベルのTF-IDF特徴の学習を対称的に活用し、新たなフィッシング脅威に対処する能力を高める。
良性およびフィッシングまたは悪意のあるURLを含む2つのベンチマークデータセットに対する実験的検証は、既存の研究と比較して96.04%の精度で、このモデルの例外的な性能を示している。
論文 参考訳(メタデータ) (2024-01-17T03:44:27Z) - Adaptive White-Box Watermarking with Self-Mutual Check Parameters in
Deep Neural Networks [14.039159907367985]
フレージル透かし(Fragile watermarking)は、AIモデルの改ざんを識別する技法である。
従来の手法では、省略のリスク、追加の情報伝達、改ざんを正確に特定できないといった課題に直面していた。
そこで本研究では,改ざんされたパラメータを検出・発見・復元するために,改ざんされたパラメータやビットを検出する手法を提案する。
論文 参考訳(メタデータ) (2023-08-22T07:21:06Z) - AdaptGuard: Defending Against Universal Attacks for Model Adaptation [129.2012687550069]
モデル適応アルゴリズムにおいて、ソースドメインから転送されるユニバーサルアタックに対する脆弱性について検討する。
本稿では,モデル適応アルゴリズムの安全性を向上させるために,AdaptGuardというモデル前処理フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-19T07:53:31Z) - An Adversarial Attack Analysis on Malicious Advertisement URL Detection
Framework [22.259444589459513]
悪意のある広告URLは、サイバー攻撃の源泉であるため、セキュリティ上のリスクをもたらす。
既存の悪意のあるURL検出技術は制限されており、見えない機能やテストデータの一般化を扱うことができる。
本研究では,新しい語彙・ウェブスクラップ機能群を抽出し,機械学習技術を用いて不正広告URL検出システムを構築する。
論文 参考訳(メタデータ) (2022-04-27T20:06:22Z) - Stateful Detection of Model Extraction Attacks [9.405458160620535]
本稿では,サービスのユーザが生成したクエリの分布を追跡し,モデル抽出攻撃を検出する,ステートフルなモニタであるVarDetectを提案する。
VarDetectは、3種類の攻撃者サンプルを良質なサンプルからしっかりと分離し、それぞれにアラームを発生させることに成功した。
本稿では,VarDetectのデプロイに関する事前知識を持つアダプティブアタッカーも検出できることを実証する。
論文 参考訳(メタデータ) (2021-07-12T02:18:26Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - No Need to Know Physics: Resilience of Process-based Model-free Anomaly
Detection for Industrial Control Systems [95.54151664013011]
本稿では,システムの物理的特性に反する逆スプーフ信号を生成するための新しい枠組みを提案する。
トップセキュリティカンファレンスで公表された4つの異常検知器を分析した。
論文 参考訳(メタデータ) (2020-12-07T11:02:44Z) - Cassandra: Detecting Trojaned Networks from Adversarial Perturbations [92.43879594465422]
多くの場合、事前トレーニングされたモデルは、トロイの木馬の振る舞いをモデルに挿入するためにトレーニングパイプラインを中断したかもしれないベンダーから派生している。
本稿では,事前学習したモデルがトロイの木馬か良馬かを検証する手法を提案する。
本手法は,ニューラルネットワークの指紋を,ネットワーク勾配から学習した逆方向の摂動の形でキャプチャする。
論文 参考訳(メタデータ) (2020-07-28T19:00:40Z) - Detection as Regression: Certified Object Detection by Median Smoothing [50.89591634725045]
この研究は、ランダム化平滑化による認定分類の最近の進歩によって動機付けられている。
我々は、$ell$-bounded攻撃に対するオブジェクト検出のための、最初のモデル非依存、トレーニング不要、認定された防御条件を得る。
論文 参考訳(メタデータ) (2020-07-07T18:40:19Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。