論文の概要: Catch Me If You GAN: Using Artificial Intelligence for Fake Log
Generation
- arxiv url: http://arxiv.org/abs/2112.12006v1
- Date: Wed, 22 Dec 2021 16:29:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-23 16:27:58.928762
- Title: Catch Me If You GAN: Using Artificial Intelligence for Fake Log
Generation
- Title(参考訳): GAN: フェイクログ生成に人工知能を使う
- Authors: Christian Toemmel
- Abstract要約: この研究は、ログ生成にGAN(Generative Adversarial Network)と呼ばれる特殊なタイプのAIを使用することを評価する。
GANは偽のログを生成するのに適していないようだ。
しかし、偽のログを検出する能力は、現実的なシナリオで使用される可能性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With artificial intelligence (AI) becoming relevant in various parts of
everyday life, other technologies are already widely influenced by the new way
of handling large amounts of data. Although widespread already, AI has had only
punctual influences on the cybersecurity field specifically. Many techniques
and technologies used by cybersecurity experts function through manual labor
and barely draw on automation, e.g., logs are often reviewed manually by system
admins for potentially malicious keywords. This work evaluates the use of a
special type of AI called generative adversarial networks (GANs) for log
generation. More precisely, three different generative adversarial networks,
SeqGAN, MaliGAN, and CoT, are reviewed in this research regarding their
performance, focusing on generating new logs as a means of deceiving system
admins for red teams. Although static generators for fake logs have been around
for a while, their produces are usually easy to reveal as such. Using AI as an
approach to this problem has not been widely researched. Identified challenges
consist of formatting, dates and times, and overall consistency. Summing up the
results, GANs seem not to be a good fit for generating fake logs. Their
capability to detect fake logs, however, might be of use in practical
scenarios.
- Abstract(参考訳): 人工知能(AI)が日常生活の様々な部分に関係するようになり、他の技術はすでに大量のデータを扱う新しい方法の影響を広く受けている。
既に広く普及しているが、AIは特にサイバーセキュリティ分野に時間的影響しか与えていない。
サイバーセキュリティの専門家が使用する多くの技術や技術は手作業で機能し、ログはシステム管理者によって潜在的に有害なキーワードとして手作業でレビューされる。
この研究は、ログ生成にGAN(Generative Adversarial Network)と呼ばれる特殊なタイプのAIを使用することを評価する。
より正確には、SqGAN、MaliGAN、CoTの3つの異なる生成敵ネットワークが、レッドチームのシステム管理者を欺く手段として、新しいログの生成に焦点をあてて、彼らのパフォーマンスに関する調査でレビューされている。
偽ログの静的ジェネレータは以前から存在していましたが、その生成物は通常、簡単に明らかにできます。
この問題に対するアプローチとしてAIを使用することは、広く研究されていない。
特定された課題はフォーマット、日付、時間、全体的な一貫性である。
結果を要約すると、GANは偽のログを生成するのに適していないようだ。
しかし、偽のログを検出する能力は、実際のシナリオで使用される可能性がある。
関連論文リスト
- LogFormer: A Pre-train and Tuning Pipeline for Log Anomaly Detection [73.69399219776315]
本稿では,ログ異常検出(LogFormer)のためのTransformerベースの統合フレームワークを提案する。
具体的には、ログデータの共有セマンティック知識を得るために、まず、ソースドメイン上で事前学習を行う。
そして、そのような知識を共有パラメータを介して対象領域に転送する。
論文 参考訳(メタデータ) (2024-01-09T12:55:21Z) - Progressing from Anomaly Detection to Automated Log Labeling and
Pioneering Root Cause Analysis [53.24804865821692]
本研究では、ログ異常の分類を導入し、ラベル付けの課題を軽減するために、自動ラベリングについて検討する。
この研究は、根本原因分析が異常検出に続く未来を予見し、異常の根本原因を解明する。
論文 参考訳(メタデータ) (2023-12-22T15:04:20Z) - Can AI-Generated Text be Reliably Detected? [54.670136179857344]
LLMの規制されていない使用は、盗作、偽ニュースの生成、スパムなど、悪意のある結果をもたらす可能性がある。
最近の研究は、生成されたテキスト出力に存在する特定のモデルシグネチャを使用するか、透かし技術を適用してこの問題に対処しようとしている。
本稿では,これらの検出器は実用シナリオにおいて信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-03-17T17:53:19Z) - LogAI: A Library for Log Analytics and Intelligence [27.889928073709516]
LogAIは、ログ分析とインテリジェンスのためのワンストップのオープンソースライブラリである。
ログの要約、ログクラスタリング、ログ異常検出などのタスクをサポートする。
LogAIは統一されたモデルインターフェースを提供し、人気のある時系列、統計学習、ディープラーニングモデルを提供する。
論文 参考訳(メタデータ) (2023-01-31T05:08:39Z) - Detection, Explanation and Filtering of Cyber Attacks Combining Symbolic
and Sub-Symbolic Methods [0.0]
我々は、ドメイン知識を取り入れたサイバーセキュリティの分野で、象徴的およびサブシンボル的手法の組み合わせを検討している。
提案手法は,様々なシナリオに対するアラートの直感的な説明を生成する。
説明はアラートに関する深い洞察を提供するだけでなく、偽陽性の警告を66%、忠実度メトリックを含めると93%減少させる。
論文 参考訳(メタデータ) (2022-12-23T09:03:51Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - LogLAB: Attention-Based Labeling of Log Data Anomalies via Weak
Supervision [63.08516384181491]
専門家の手作業を必要とせず,ログメッセージの自動ラベル付けのための新しいモデリング手法であるLogLABを提案する。
本手法は,監視システムが提供する推定故障時間ウィンドウを用いて,正確なラベル付きデータセットを振り返りに生成する。
我々の評価によると、LogLABは3つの異なるデータセットで9つのベンチマークアプローチを一貫して上回り、大規模な障害時ウィンドウでも0.98以上のF1スコアを維持している。
論文 参考訳(メタデータ) (2021-11-02T15:16:08Z) - Robustness testing of AI systems: A case study for traffic sign
recognition [13.395753930904108]
本稿では,AIシステムのロバスト性を実際に検討し,どの手法やメトリクスを利用できるかを示す。
自律運転における交通標識認識の例について,ロバストネステスト手法を解説し,分析した。
論文 参考訳(メタデータ) (2021-08-13T10:29:09Z) - Automating Cyber Threat Hunting Using NLP, Automated Query Generation,
and Genetic Perturbation [8.669461942767098]
We have developed the WILEE system that cyber threat hunting by translating high-level threat descriptions into many possible concrete implementation。
高レベル)抽象的および(低レベル)具体的な実装は、カスタムドメイン固有の言語を使用して表現される。
WILEEは、DSLで書かれた他のロジックと共に実装を使用して、クエリを自動的に生成し、潜在的な敵に結びついた仮説を確認(または否定)する。
論文 参考訳(メタデータ) (2021-04-23T13:19:12Z) - Detecting the Insider Threat with Long Short Term Memory (LSTM) Neural
Networks [0.799536002595393]
本研究では,ディープラーニング,特にLong Short Term Memory(LSTM)リカレントネットワークを用いて,インサイダー脅威の検出を可能にする。
我々は、LSTMが検索空間を減らし、セキュリティアナリストの仕事をより効果的にするために、データのシーケンシャルな性質をどのように利用するか、非常に大規模で匿名化されたデータセットを通して示す。
論文 参考訳(メタデータ) (2020-07-20T23:29:01Z) - Self-Supervised Log Parsing [59.04636530383049]
大規模ソフトウェアシステムは、大量の半構造化ログレコードを生成する。
既存のアプローチは、ログ特化や手動ルール抽出に依存している。
本稿では,自己教師付き学習モデルを用いて解析タスクをマスク言語モデリングとして定式化するNuLogを提案する。
論文 参考訳(メタデータ) (2020-03-17T19:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。