論文の概要: HoneyGPT: Breaking the Trilemma in Terminal Honeypots with Large Language Model
- arxiv url: http://arxiv.org/abs/2406.01882v1
- Date: Tue, 4 Jun 2024 01:31:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 20:23:04.305985
- Title: HoneyGPT: Breaking the Trilemma in Terminal Honeypots with Large Language Model
- Title(参考訳): HoneyGPT:大規模言語モデルによる終端ハネポットのトリレンマを破る
- Authors: Ziyang Wang, Jianzhou You, Haining Wang, Tianwei Yuan, Shichao Lv, Yang Wang, Limin Sun,
- Abstract要約: ハニーポットは柔軟性、相互作用の深さ、騙しの能力のバランスをとるのに苦労する。
本稿では,ChatGPTをベースとしたハニーポットアーキテクチャであるHoneyGPTを紹介する。
本稿では、長期のインタラクションメモリと堅牢なセキュリティ分析を増強する構造化プロンプトエンジニアリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.51393825471691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Honeypots, as a strategic cyber-deception mechanism designed to emulate authentic interactions and bait unauthorized entities, continue to struggle with balancing flexibility, interaction depth, and deceptive capability despite their evolution over decades. Often they also lack the capability of proactively adapting to an attacker's evolving tactics, which restricts the depth of engagement and subsequent information gathering. Under this context, the emergent capabilities of large language models, in tandem with pioneering prompt-based engineering techniques, offer a transformative shift in the design and deployment of honeypot technologies. In this paper, we introduce HoneyGPT, a pioneering honeypot architecture based on ChatGPT, heralding a new era of intelligent honeypot solutions characterized by their cost-effectiveness, high adaptability, and enhanced interactivity, coupled with a predisposition for proactive attacker engagement. Furthermore, we present a structured prompt engineering framework that augments long-term interaction memory and robust security analytics. This framework, integrating thought of chain tactics attuned to honeypot contexts, enhances interactivity and deception, deepens security analytics, and ensures sustained engagement. The evaluation of HoneyGPT includes two parts: a baseline comparison based on a collected dataset and a field evaluation in real scenarios for four weeks. The baseline comparison demonstrates HoneyGPT's remarkable ability to strike a balance among flexibility, interaction depth, and deceptive capability. The field evaluation further validates HoneyGPT's efficacy, showing its marked superiority in enticing attackers into more profound interactive engagements and capturing a wider array of novel attack vectors in comparison to existing honeypot technologies.
- Abstract(参考訳): ハニーポット(Honeypots)は、真の相互作用をエミュレートし、無許可のエンティティを餌にする戦略的なサイバー詐欺機構として、何十年もの間進化してきたにもかかわらず、柔軟性、相互作用の深さ、騙しの能力のバランスに苦戦し続けている。
多くの場合、攻撃者の進化的戦術に積極的に適応する能力が欠如しており、これはエンゲージメントの深さとその後の情報収集を制限する。
この状況下では、大規模言語モデルの創発的な能力は、先駆的なプロンプトベースのエンジニアリング技術と相まって、ハニーポット技術の設計と展開に変革をもたらす。
本稿では,ChatGPTをベースとしたハニーポットアーキテクチャであるHoneyGPTを紹介する。
さらに、長期のインタラクションメモリと堅牢なセキュリティ分析を増強する構造化プロンプトエンジニアリングフレームワークを提案する。
このフレームワークは、ハニーポットの文脈に順応したチェーン戦略の考えを統合し、相互作用性と騙しを強化し、セキュリティ分析をより深め、持続的なエンゲージメントを確保する。
HoneyGPTの評価には,収集したデータセットに基づくベースライン比較と,実シナリオでの4週間のフィールド評価の2つの部分が含まれている。
ベースライン比較は、HoneyGPTが柔軟性、相互作用深度、騙し能力のバランスをとれる素晴らしい能力を示している。
フィールド評価は、HoneyGPTの有効性をさらに検証し、攻撃者をより深い対話的なエンゲージメントへと誘惑し、既存のハニーポット技術と比較してより広い範囲の新規攻撃ベクトルを捕獲するという点において、顕著な優位性を示している。
関連論文リスト
- LLM Honeypot: Leveraging Large Language Models as Advanced Interactive Honeypot Systems [0.0]
ハニーポット(Honeypot)は、攻撃者を誘惑し、相互作用させるように設計されたデコイシステムである。
我々は,大規模言語モデルを用いて,現実的でインタラクティブなハニーポットシステムを構築するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-12T17:33:06Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - HoneyDOC: An Efficient Honeypot Architecture Enabling All-Round Design [0.5849783371898033]
ハニーポットは悪意のある行動を調べるために攻撃者を罠にかけるように設計されている。
高品質な攻撃データをキャプチャする方法は、ハニーポット領域の文脈において課題となっている。
センシティビリティ、対策、ステルスの大幅な改善を意味する全周ハニーポットは、この問題に対処するために必要である。
論文 参考訳(メタデータ) (2024-02-09T16:27:45Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - ChatGPT as an Attack Tool: Stealthy Textual Backdoor Attack via Blackbox
Generative Model Trigger [11.622811907571132]
テキストバックドア攻撃は既存のシステムに現実的な脅威をもたらす。
GPT-4のような最先端の生成モデルでは、リライトを異常なレベルに押し上げるため、そのような攻撃はより検出しにくくなっている。
我々は、バックドア攻撃ツールとしてのブラックボックス生成モデルの役割を包括的に調査し、相対防衛戦略の研究の重要性を強調した。
論文 参考訳(メタデータ) (2023-04-27T19:26:25Z) - What are Attackers after on IoT Devices? An approach based on a
multi-phased multi-faceted IoT honeypot ecosystem and data clustering [11.672070081489565]
ハニーポットは歴史的に、ネットワーク上の脅威のダイナミクスをよりよく理解するためのデコイデバイスとして使われてきた。
本研究では,マルチフェーズで多面的なハニーポットエコシステムを構築するための新しいアプローチを提案する。
各フェーズで高度な攻撃データを収集することができたのです。
論文 参考訳(メタデータ) (2021-12-21T04:11:45Z) - HoneyCar: A Framework to Configure HoneypotVulnerabilities on the
Internet of Vehicles [5.248912296890883]
Internet of Vehicles(IoV)は社会経済的利益を約束しているが、新たなサイバー物理学的脅威をもたらす。
車両攻撃者のデータは、ハニーポットのようなシステムを使って、サイバー脅威情報を通じて現実的に収集することができる。
ハニーカー(HoneyCar)は、ハニーポット詐欺の新しい意思決定支援フレームワークである。
論文 参考訳(メタデータ) (2021-11-03T17:31:56Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。