論文の概要: HoneyGPT: Breaking the Trilemma in Terminal Honeypots with Large Language Model
- arxiv url: http://arxiv.org/abs/2406.01882v2
- Date: Sat, 15 Feb 2025 10:06:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-18 14:07:45.587206
- Title: HoneyGPT: Breaking the Trilemma in Terminal Honeypots with Large Language Model
- Title(参考訳): HoneyGPT:大規模言語モデルによる終端ハネポットのトリレンマを破る
- Authors: Ziyang Wang, Jianzhou You, Haining Wang, Tianwei Yuan, Shichao Lv, Yang Wang, Limin Sun,
- Abstract要約: ハニーポットは、戦略的なサイバー詐欺機構として、しばしば柔軟性、相互作用の深さ、詐欺のバランスに苦しむ。
本稿では,ChatGPTをベースとしたハニーポットアーキテクチャであるHoneyGPTを紹介する。
特に,長期記憶と堅牢なセキュリティ分析を改善するためのチェーン・オブ・シント戦略を取り入れた,構造化されたプロンプトエンジニアリングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 18.51393825471691
- License:
- Abstract: Honeypots, as a strategic cyber-deception mechanism designed to emulate authentic interactions and bait unauthorized entities, often struggle with balancing flexibility, interaction depth, and deception. They typically fail to adapt to evolving attacker tactics, with limited engagement and information gathering. Fortunately, the emergent capabilities of large language models and innovative prompt-based engineering offer a transformative shift in honeypot technologies. This paper introduces HoneyGPT, a pioneering shell honeypot architecture based on ChatGPT, characterized by its cost-effectiveness and proactive engagement. In particular, we propose a structured prompt engineering framework that incorporates chain-of-thought tactics to improve long-term memory and robust security analytics, enhancing deception and engagement. Our evaluation of HoneyGPT comprises a baseline comparison based on a collected dataset and a three-month field evaluation. The baseline comparison demonstrates HoneyGPT's remarkable ability to strike a balance among flexibility, interaction depth, and deceptive capability. The field evaluation further validates HoneyGPT's superior performance in engaging attackers more deeply and capturing a wider array of novel attack vectors.
- Abstract(参考訳): ハニーポット(Honeypots)は、真正な相互作用をエミュレートし、認可されていないエンティティを餌にする戦略的なサイバー詐欺機構として、しばしば柔軟性、相互作用深さ、騙しのバランスに苦しむ。
彼らは通常、限られたエンゲージメントと情報収集を伴って、進化する攻撃戦術に適応できない。
幸いなことに、大きな言語モデルと革新的なプロンプトベースのエンジニアリングの創発的な能力は、ハニーポット技術に変革をもたらす。
本稿では,ChatGPTをベースとしたハニーポットアーキテクチャであるHoneyGPTを紹介する。
特に、長期記憶と堅牢なセキュリティ分析を改善するためのチェーン・オブ・シント戦略を取り入れた構造化されたプロンプトエンジニアリングフレームワークを提案する。
HoneyGPTの評価は,収集したデータセットに基づくベースライン比較と3ヶ月のフィールド評価からなる。
ベースライン比較は、HoneyGPTが柔軟性、相互作用深度、騙し能力のバランスをとれる素晴らしい能力を示している。
フィールド評価は、HoneyGPTが攻撃者に対してより深く関与し、より広い範囲の新規攻撃ベクトルを捕捉する際の優れた性能を更に検証する。
関連論文リスト
- LLM Honeypot: Leveraging Large Language Models as Advanced Interactive Honeypot Systems [0.0]
ハニーポット(Honeypot)は、攻撃者を誘惑し、相互作用させるように設計されたデコイシステムである。
我々は,大規模言語モデルを用いて,現実的でインタラクティブなハニーポットシステムを構築するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-12T17:33:06Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - HoneyDOC: An Efficient Honeypot Architecture Enabling All-Round Design [0.5849783371898033]
ハニーポットは悪意のある行動を調べるために攻撃者を罠にかけるように設計されている。
高品質な攻撃データをキャプチャする方法は、ハニーポット領域の文脈において課題となっている。
センシティビリティ、対策、ステルスの大幅な改善を意味する全周ハニーポットは、この問題に対処するために必要である。
論文 参考訳(メタデータ) (2024-02-09T16:27:45Z) - Mutual-modality Adversarial Attack with Semantic Perturbation [81.66172089175346]
本稿では,相互モダリティ最適化スキームにおける敵攻撃を生成する新しい手法を提案する。
我々の手法は最先端の攻撃方法より優れており、プラグイン・アンド・プレイ・ソリューションとして容易にデプロイできる。
論文 参考訳(メタデータ) (2023-12-20T05:06:01Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - ChatGPT as an Attack Tool: Stealthy Textual Backdoor Attack via Blackbox
Generative Model Trigger [11.622811907571132]
テキストバックドア攻撃は既存のシステムに現実的な脅威をもたらす。
GPT-4のような最先端の生成モデルでは、リライトを異常なレベルに押し上げるため、そのような攻撃はより検出しにくくなっている。
我々は、バックドア攻撃ツールとしてのブラックボックス生成モデルの役割を包括的に調査し、相対防衛戦略の研究の重要性を強調した。
論文 参考訳(メタデータ) (2023-04-27T19:26:25Z) - What are Attackers after on IoT Devices? An approach based on a
multi-phased multi-faceted IoT honeypot ecosystem and data clustering [11.672070081489565]
ハニーポットは歴史的に、ネットワーク上の脅威のダイナミクスをよりよく理解するためのデコイデバイスとして使われてきた。
本研究では,マルチフェーズで多面的なハニーポットエコシステムを構築するための新しいアプローチを提案する。
各フェーズで高度な攻撃データを収集することができたのです。
論文 参考訳(メタデータ) (2021-12-21T04:11:45Z) - HoneyCar: A Framework to Configure HoneypotVulnerabilities on the
Internet of Vehicles [5.248912296890883]
Internet of Vehicles(IoV)は社会経済的利益を約束しているが、新たなサイバー物理学的脅威をもたらす。
車両攻撃者のデータは、ハニーポットのようなシステムを使って、サイバー脅威情報を通じて現実的に収集することができる。
ハニーカー(HoneyCar)は、ハニーポット詐欺の新しい意思決定支援フレームワークである。
論文 参考訳(メタデータ) (2021-11-03T17:31:56Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - Virtual Data Augmentation: A Robust and General Framework for
Fine-tuning Pre-trained Models [51.46732511844122]
強力な事前訓練型言語モデル(PLM)は、小さな摂動や意図的な攻撃によって騙されることがある。
VDA(Virtual Data Augmentation)は,PLMを高度に微調整するための一般的なフレームワークである。
本手法は, PLMの堅牢性を向上し, 敵攻撃時の性能劣化を軽減する。
論文 参考訳(メタデータ) (2021-09-13T09:15:28Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。