論文の概要: LogPrécis: Unleashing Language Models for Automated Shell Log Analysis
- arxiv url: http://arxiv.org/abs/2307.08309v2
- Date: Wed, 20 Mar 2024 12:12:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 22:47:21.414742
- Title: LogPrécis: Unleashing Language Models for Automated Shell Log Analysis
- Title(参考訳): LogPrécis: 自動シェルログ分析のための言語モデル公開
- Authors: Matteo Boffa, Rodolfo Vieira Valentim, Luca Vassio, Danilo Giordano, Idilio Drago, Marco Mellia, Zied Ben Houidi,
- Abstract要約: テキストのようなUnixシェル攻撃ログを自動的に解析するために、言語モデルにおける最先端の利点を示す。
約40,000のUnixシェル攻撃を含む2つの大きなデータセットの分析をサポートするLogPr'ecis機能を示す。
- 参考スコア(独自算出の注目度): 4.380767833087969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The collection of security-related logs holds the key to understanding attack behaviors and diagnosing vulnerabilities. Still, their analysis remains a daunting challenge. Recently, Language Models (LMs) have demonstrated unmatched potential in understanding natural and programming languages. The question arises whether and how LMs could be also useful for security experts since their logs contain intrinsically confused and obfuscated information. In this paper, we systematically study how to benefit from the state-of-the-art in LM to automatically analyze text-like Unix shell attack logs. We present a thorough design methodology that leads to LogPr\'ecis. It receives as input raw shell sessions and automatically identifies and assigns the attacker tactic to each portion of the session, i.e., unveiling the sequence of the attacker's goals. We demonstrate LogPr\'ecis capability to support the analysis of two large datasets containing about 400,000 unique Unix shell attacks. LogPr\'ecis reduces them into about 3,000 fingerprints, each grouping sessions with the same sequence of tactics. The abstraction it provides lets the analyst better understand attacks, identify fingerprints, detect novelty, link similar attacks, and track families and mutations. Overall, LogPr\'ecis, released as open source, paves the way for better and more responsive defense against cyberattacks.
- Abstract(参考訳): セキュリティ関連のログの収集は、攻撃行動を理解し、脆弱性を診断する鍵を持っている。
それでも、彼らの分析はいまだに困難な課題だ。
近年,自然言語やプログラミング言語の理解において,言語モデル (LM) が未適合の可能性を実証している。
この問題は、LMが本質的に混同され難解な情報を含んでいるため、セキュリティの専門家にとってどのように役立つのかという問題である。
本稿では,テキストのようなUnixシェル攻撃ログを自動的に解析するために,LMの最先端技術によるメリットを体系的に研究する。
われわれはLogPr\'ecisに繋がる徹底した設計方法論を提示する。
入力された生のシェルセッションとして受信し、攻撃者の戦術を自動的に識別し、セッションの各部分に割り当てる。
約40,000のUnixシェル攻撃を含む2つの大きなデータセットの分析をサポートするLogPr\'ecis機能を示す。
LogPr\'ecisはそれらを約3,000の指紋に減らし、それぞれが同じ戦術でセッションをグループ化する。
この抽象化によって、アナリストは攻撃をよりよく理解し、指紋を識別し、新奇性を検知し、類似の攻撃をリンクし、家族や突然変異を追跡することができる。
全体として、LogPr\'ecisはオープンソースとしてリリースされ、サイバー攻撃に対するより良い、よりレスポンシブな防御の道を開いた。
関連論文リスト
- Unified Semantic Log Parsing and Causal Graph Construction for Attack Attribution [3.9936021096611576]
マルチソースログは、進行中のシステムアクティビティの包括的概要を提供し、詳細な分析によって潜在的な脅威を検出することができる。
脅威検出の実践的なアプローチは、システム動作の分析を容易にするために、グラフを構築するためのエンティティトリプル(オブジェクト、アクション、オブジェクト)を明示的に抽出することである。
個別のログソースから複数のサブグラフをマージして因果グラフを構築するために意味解析を採用する。
論文 参考訳(メタデータ) (2024-11-22T21:40:19Z) - FATH: Authentication-based Test-time Defense against Indirect Prompt Injection Attacks [45.65210717380502]
大規模言語モデル(LLM)は、現実世界のアプリケーションのための追加ツールとテキスト情報を備えたバックボーンとして広くデプロイされている。
プロンプトインジェクション攻撃は特に脅威であり、外部のテキスト情報に悪意のあるインストラクションを注入することで、LLMを利用して攻撃者が望む答えを生成することができる。
本稿では,AuThentication with Hash-based tags (FATH)という新しいテストタイム防衛戦略を紹介する。
論文 参考訳(メタデータ) (2024-10-28T20:02:47Z) - AutoJailbreak: Exploring Jailbreak Attacks and Defenses through a Dependency Lens [83.08119913279488]
本稿では,ジェイルブレイク攻撃と防衛技術における依存関係の体系的解析について述べる。
包括的な、自動化された、論理的な3つのフレームワークを提案します。
このアンサンブル・ジェイルブレイク・アタックと防衛の枠組みは,既存の研究を著しく上回る結果となった。
論文 参考訳(メタデータ) (2024-06-06T07:24:41Z) - AutoDAN: Interpretable Gradient-Based Adversarial Attacks on Large
Language Models [55.748851471119906]
LLM(Large Language Models)の安全性の整合性は、手動のジェイルブレイク攻撃や(自動)敵攻撃によって損なわれる可能性がある。
最近の研究は、これらの攻撃に対する防御が可能であることを示唆している。敵攻撃は無限だが読めないジベリッシュプロンプトを生成し、難易度に基づくフィルタによって検出できる。
両攻撃の強度をマージする,解釈可能な勾配に基づく対向攻撃であるAutoDANを導入する。
論文 参考訳(メタデータ) (2023-10-23T17:46:07Z) - Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - AutoDAN: Generating Stealthy Jailbreak Prompts on Aligned Large Language Models [54.95912006700379]
本稿では,大規模言語モデルに対する新たなジェイルブレイク攻撃であるAutoDANを紹介する。
AutoDANは、慎重に設計された階層型遺伝的アルゴリズムによって、ステルスなジェイルブレイクプロンプトを自動的に生成できる。
論文 参考訳(メタデータ) (2023-10-03T19:44:37Z) - SEA: Shareable and Explainable Attribution for Query-based Black-box
Attacks [28.736776243428654]
本稿では,MLシステムに対するブラックボックス攻撃を特徴付ける機械学習セキュリティシステムSEAを紹介する。
本研究は,SEAが2回目の発生においても,攻撃帰属に有効であることを示す。
また、SEAは、90% Top-1 と95% Top-3 の精度で、同一攻撃の2回目の発生を認識できることを示した。
論文 参考訳(メタデータ) (2023-08-23T00:49:29Z) - Zero-shot learning approach to adaptive Cybersecurity using Explainable
AI [0.5076419064097734]
本稿では,セキュリティ情報やイベント管理 (SIEM) や侵入検知 (IDS) といったサイバーセキュリティシステムで直面するアラーム浸水問題に対処する新しいアプローチを提案する。
我々は機械学習(ML)にゼロショット学習法を適用し、MLモデルによって生成された異常の予測に説明を活用する。
このアプローチでは、攻撃に関する事前の知識がなければ、それを識別し、分類に寄与する特徴を解読し、特定のカテゴリで攻撃をバケット化しようとする。
論文 参考訳(メタデータ) (2021-06-21T06:29:13Z) - Hidden Killer: Invisible Textual Backdoor Attacks with Syntactic Trigger [48.59965356276387]
本稿では,テキストバックドア攻撃の引き金として構文構造を用いることを提案する。
我々は、トリガーベースアタック法が同等のアタック性能を達成できることを示すため、広範囲な実験を行った。
また,本研究の結果から,テキストバックドア攻撃の重篤さと有害性も明らかとなった。
論文 参考訳(メタデータ) (2021-05-26T08:54:19Z) - OntoEnricher: A Deep Learning Approach for Ontology Enrichment from
Unstructured Text [2.707154152696381]
Web上で利用可能な脆弱性、コントロール、アドバイザリに関する既存の情報は、知識を表現し、関心事の一部を緩和するために分析を行う機会を提供する。
これは情報セキュリティの動的かつ自動化された強化を必要とする。
自然言語処理とMLモデルに基づく既存のオントロジーエンリッチメントアルゴリズムは、単語、フレーズ、文における概念の文脈的抽出に問題がある。
論文 参考訳(メタデータ) (2021-02-08T09:43:05Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。