論文の概要: LLMs for Domain Generation Algorithm Detection
- arxiv url: http://arxiv.org/abs/2411.03307v1
- Date: Tue, 05 Nov 2024 18:01:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-06 15:00:30.216730
- Title: LLMs for Domain Generation Algorithm Detection
- Title(参考訳): ドメイン生成アルゴリズム検出のためのLLM
- Authors: Reynier Leyva La O, Carlos A. Catania, Tatiana Parlanti,
- Abstract要約: 本研究では,大規模言語モデル(LLM)を用いてドメイン生成アルゴリズム(DGA)の検出を行う。
In-Context Learning (ICL) と Supervised Fine-Tuning (SFT) はどのように検出を改善するかを示す。
特に、SFTベースのLDM DGA検出器は注目層を用いた最先端モデルよりも優れ、4%の偽陽性率(FPR)で94%の精度を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: This work analyzes the use of large language models (LLMs) for detecting domain generation algorithms (DGAs). We perform a detailed evaluation of two important techniques: In-Context Learning (ICL) and Supervised Fine-Tuning (SFT), showing how they can improve detection. SFT increases performance by using domain-specific data, whereas ICL helps the detection model to quickly adapt to new threats without requiring much retraining. We use Meta's Llama3 8B model, on a custom dataset with 68 malware families and normal domains, covering several hard-to-detect schemes, including recent word-based DGAs. Results proved that LLM-based methods can achieve competitive results in DGA detection. In particular, the SFT-based LLM DGA detector outperforms state-of-the-art models using attention layers, achieving 94% accuracy with a 4% false positive rate (FPR) and excelling at detecting word-based DGA domains.
- Abstract(参考訳): 本研究では,大規模言語モデル(LLM)を用いてドメイン生成アルゴリズム(DGA)の検出を行う。
In-Context Learning (ICL) と Supervised Fine-Tuning (SFT) の2つの重要な手法を詳細に評価し、検出を改善する方法について述べる。
SFTはドメイン固有のデータを使用することでパフォーマンスを向上する一方、ICLは再トレーニングを必要とせず、検出モデルが新しい脅威に迅速に適応するのに役立つ。
我々はMetaのLlama3 8Bモデルを68のマルウェアファミリーと通常のドメインを持つカスタムデータセットで使用し、最近の単語ベースのDGAを含む、検出が難しいいくつかのスキームをカバーしています。
その結果, LLM法はDGA検出において競合する結果が得られた。
特に、SFTベースのLDM DGA検出器は、注目層を用いた最先端モデルよりも優れ、94%の精度で偽陽性率(FPR)を達成し、単語ベースのDGAドメインの検出に優れる。
関連論文リスト
- Fine-tuning Large Language Models for DGA and DNS Exfiltration Detection [1.350128573715538]
大規模言語モデル(LLM)は、リアルタイム検出タスクにおいてその習熟度を実証している。
本研究は, DGA および DNS ろ過攻撃を検出するための微調整 LLM の有効性を検証する。
論文 参考訳(メタデータ) (2024-10-29T04:22:28Z) - Auto-GDA: Automatic Domain Adaptation for Efficient Grounding Verification in Retrieval Augmented Generation [13.120801609024147]
検索拡張生成(RAG)は,大規模言語モデル(LLM)出力の現実性を高めることが示されている。
RAG入力は、NLIモデルのトレーニングに使用されるほとんどのデータセットよりも複雑である。
教師なしドメイン適応を実現するために自動生成ドメイン適応(Auto-GDA)を導入する。
論文 参考訳(メタデータ) (2024-10-04T14:21:27Z) - Search for Efficient Large Language Models [52.98684997131108]
大規模言語モデル(LLMs)は、人工知能研究の領域で長い間停滞してきた。
軽量プルーニング、量子化、蒸留がLLMの圧縮に取り入れられ、メモリの削減と推論の加速を狙った。
ほとんどのモデル圧縮技術は、最適アーキテクチャの探索を見越して重量最適化に重点を置いている。
論文 参考訳(メタデータ) (2024-09-25T21:32:12Z) - Anomaly Detection of Tabular Data Using LLMs [54.470648484612866]
我々は,事前訓練された大規模言語モデル (LLM) がゼロショットバッチレベルの異常検出器であることを示す。
本稿では,実異常検出におけるLCMの潜在性を明らかにするために,エンドツーエンドの微調整手法を提案する。
論文 参考訳(メタデータ) (2024-06-24T04:17:03Z) - DALD: Improving Logits-based Detector without Logits from Black-box LLMs [56.234109491884126]
大規模言語モデル(LLM)はテキスト生成に革命をもたらし、人間の文章を忠実に模倣する出力を生成する。
我々は、ブラックボックステキスト検出における最先端性能を再定義する革新的なフレームワークであるDLD(Dis Distribution-Aligned LLMs Detection)を提案する。
DALDは、サロゲートモデルの分布を未知の目標LLMの分布と整合させ、高速モデルの反復に対する検出能力とレジリエンスを向上するように設計されている。
論文 参考訳(メタデータ) (2024-06-07T19:38:05Z) - Self-supervised Feature Adaptation for 3D Industrial Anomaly Detection [59.41026558455904]
具体的には,大規模ビジュアルデータセット上で事前学習されたモデルを利用した初期のマルチモーダルアプローチについて検討する。
本研究では,アダプタを微調整し,異常検出に向けたタスク指向の表現を学習するためのLSFA法を提案する。
論文 参考訳(メタデータ) (2024-01-06T07:30:41Z) - Generalized Semantic Segmentation by Self-Supervised Source Domain
Projection and Multi-Level Contrastive Learning [79.0660895390689]
ソースドメインでトレーニングされたディープネットワークは、未確認のターゲットドメインデータでテストした場合、パフォーマンスが低下している。
汎用セマンティックセグメンテーションのためのドメイン・プロジェクションとコントラシブ・ラーニング(DPCL)手法を提案する。
論文 参考訳(メタデータ) (2023-03-03T13:07:14Z) - Detecting Algorithmically Generated Domains Using a GCNN-LSTM Hybrid
Neural Network [10.617124610646488]
ドメイン生成アルゴリズム(DGA)は、ボットネットによって秘密のコマンドと制御(C&C)通信チャネルを構築するために使用される。
AGD検出アルゴリズムは、既存のDGA技術に対応する軽量で有望なソリューションを提供する。
本稿では,AGD検出のためのGCNN-LSTM (long short-term memory) Hybrid Neural Network (GLHNN)を提案する。
論文 参考訳(メタデータ) (2022-08-06T05:15:45Z) - Learning Robust Feature Representations for Scene Text Detection [0.0]
本稿では、条件付きログを最大化するために、損失から導かれるネットワークアーキテクチャを提案する。
潜伏変数の層を複数の層に拡張することで、ネットワークは大規模に堅牢な機能を学ぶことができる。
実験では,提案アルゴリズムはリコール法と精度の両面で最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2020-05-26T01:06:47Z) - Self-Guided Adaptation: Progressive Representation Alignment for Domain
Adaptive Object Detection [86.69077525494106]
非教師なしドメイン適応(UDA)は、オブジェクト検出モデルのドメイン間ロバスト性を改善するために前例のない成功を収めた。
既存のUDA手法は、モデル学習中の瞬間的なデータ分布を無視しており、大きなドメインシフトによって特徴表現が劣化する可能性がある。
本稿では、特徴表現の整合とドメイン間のオブジェクト検出モデルの転送を目標とする自己ガイド適応モデルを提案する。
論文 参考訳(メタデータ) (2020-03-19T13:30:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。