論文の概要: Towards Characterizing Cyber Networks with Large Language Models
- arxiv url: http://arxiv.org/abs/2411.07089v1
- Date: Mon, 11 Nov 2024 16:09:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:12:25.532253
- Title: Towards Characterizing Cyber Networks with Large Language Models
- Title(参考訳): 大規模言語モデルを用いたサイバーネットワークのキャラクタリゼーションに向けて
- Authors: Alaric Hartsock, Luiz Manella Pereira, Glenn Fink,
- Abstract要約: 我々は,Cyber Log Embeddings Model (CLEM)と呼ばれるプロトタイプツールを用いて,サイバーデータの潜在的特徴を用いて異常を発見する。
CLEMは、現実世界のプロダクションネットワークとIoT(Internet of Things)のサイバーセキュリティテストベッドの両方からのZeekネットワークトラフィックログに基づいてトレーニングされた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Threat hunting analyzes large, noisy, high-dimensional data to find sparse adversarial behavior. We believe adversarial activities, however they are disguised, are extremely difficult to completely obscure in high dimensional space. In this paper, we employ these latent features of cyber data to find anomalies via a prototype tool called Cyber Log Embeddings Model (CLEM). CLEM was trained on Zeek network traffic logs from both a real-world production network and an from Internet of Things (IoT) cybersecurity testbed. The model is deliberately overtrained on a sliding window of data to characterize each window closely. We use the Adjusted Rand Index (ARI) to comparing the k-means clustering of CLEM output to expert labeling of the embeddings. Our approach demonstrates that there is promise in using natural language modeling to understand cyber data.
- Abstract(参考訳): 脅威狩りは、大きな、騒々しい、高次元のデータを分析して、まばらな敵対行動を見つける。
我々は、敵の行動は偽装されているものの、高次元空間において完全に曖昧にすることは極めて困難であると考えている。
本稿では,サイバーログ埋め込みモデル (Cyber Log Embeddings Model, CLEM) と呼ばれるプロトタイプツールを用いて, サイバーデータの潜在的特徴を用いて異常の発見を行う。
CLEMは、現実世界のプロダクションネットワークとIoT(Internet of Things)のサイバーセキュリティテストベッドの両方からのZeekネットワークトラフィックログに基づいてトレーニングされた。
モデルは、データスライディングウィンドウ上で意図的に過度にトレーニングされ、各ウィンドウを正確に特徴付ける。
CLEM出力のk平均クラスタリングと埋め込みの専門的なラベル付けを比較するために、調整ランダムインデックス(ARI)を用いる。
我々のアプローチは、自然言語モデリングを使ってサイバーデータを理解することに、将来性があることを実証している。
関連論文リスト
- Explainable AI for Comparative Analysis of Intrusion Detection Models [20.683181384051395]
本研究は,ネットワークトラフィックから侵入検出を行うために,各種機械学習モデルを二分分類および多クラス分類のタスクに解析する。
すべてのモデルをUNSW-NB15データセットで90%の精度でトレーニングしました。
また、Random Forestは正確さ、時間効率、堅牢性という点で最高のパフォーマンスを提供します。
論文 参考訳(メタデータ) (2024-06-14T03:11:01Z) - Twin Auto-Encoder Model for Learning Separable Representation in Cyberattack Detection [21.581155557707632]
サイバーアタック検出のためのTwin Auto-Encoder (TAE) と呼ばれる新しいモードを提案する。
実験結果は、最先端のRLモデルとよく知られた機械学習アルゴリズムよりもTAEの精度が優れていることを示す。
論文 参考訳(メタデータ) (2024-03-22T03:39:40Z) - Identifying and Mitigating Model Failures through Few-shot CLIP-aided
Diffusion Generation [65.268245109828]
本稿では,突発的相関に付随する障害モードのテキスト記述を生成するためのエンドツーエンドフレームワークを提案する。
これらの記述は拡散モデルのような生成モデルを用いて合成データを生成するのに使うことができる。
本実験では, ハードサブポピュレーションの精度(sim textbf21%$)が著しく向上した。
論文 参考訳(メタデータ) (2023-12-09T04:43:49Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - From Zero to Hero: Detecting Leaked Data through Synthetic Data Injection and Model Querying [10.919336198760808]
分類モデルの学習に使用される漏洩データを検出する新しい手法を提案する。
textscLDSSは、クラス分散の局所的なシフトによって特徴付けられる、少量の合成データを所有者のデータセットに注入する。
これにより、モデルクエリ単独で、リークデータに基づいてトレーニングされたモデルの効果的な識別が可能になる。
論文 参考訳(メタデータ) (2023-10-06T10:36:28Z) - Unleashing Mask: Explore the Intrinsic Out-of-Distribution Detection
Capability [70.72426887518517]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイする際に、セキュアAIの必須の側面である。
本稿では,IDデータを用いた学習モデルのOOD識別能力を復元する新しい手法であるUnleashing Maskを提案する。
本手法では, マスクを用いて記憶した非定型サンプルを抽出し, モデルを微調整するか, 導入したマスクでプルーする。
論文 参考訳(メタデータ) (2023-06-06T14:23:34Z) - Zero Day Threat Detection Using Metric Learning Autoencoders [3.1965908200266173]
企業ネットワークへのゼロデイ脅威(ZDT)の拡散は、非常にコストがかかる。
ディープラーニング手法は、高度に非線形な振る舞いパターンをキャプチャする能力にとって魅力的な選択肢である。
ここで提示されるモデルは、さらに2つのデータセットでトレーニングされ、評価され、新しいネットワークトポロジに一般化しても、有望な結果を示し続ける。
論文 参考訳(メタデータ) (2022-11-01T13:12:20Z) - Detection of Malicious Websites Using Machine Learning Techniques [0.0]
K-Nearest Neighborはデータセット間で一貫して高いパフォーマンスを実現する唯一のモデルだ。
Random Forest、Decision Trees、Logistic Regression、Support Vector Machinesといった他のモデルも、すべてのリンクを悪意のあるものとして予測するベースラインモデルを上回っている。
論文 参考訳(メタデータ) (2022-09-13T13:48:31Z) - CARLA-GeAR: a Dataset Generator for a Systematic Evaluation of
Adversarial Robustness of Vision Models [61.68061613161187]
本稿では,合成データセットの自動生成ツールであるCARLA-GeARについて述べる。
このツールは、Python APIを使用して、CARLAシミュレータ上に構築されており、自律運転のコンテキストにおいて、いくつかのビジョンタスク用のデータセットを生成することができる。
本稿では,CARLA-GeARで生成されたデータセットが,現実世界の敵防衛のベンチマークとして今後どのように利用されるかを示す。
論文 参考訳(メタデータ) (2022-06-09T09:17:38Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。