論文の概要: LLM in the Shell: Generative Honeypots
- arxiv url: http://arxiv.org/abs/2309.00155v2
- Date: Fri, 9 Feb 2024 14:03:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 20:29:28.778107
- Title: LLM in the Shell: Generative Honeypots
- Title(参考訳): LLM in the Shell: Generative Honeypots
- Authors: Muris Sladi\'c and Veronica Valeros and Carlos Catania and Sebastian
Garcia
- Abstract要約: ハニーポットはサイバーセキュリティに不可欠なツールだが、人間の攻撃者を騙すための現実主義が欠如している。
この研究は、大規模言語モデルに基づく動的で現実的なソフトウェアハニーポットを作成する新しい方法を紹介します。
- 参考スコア(独自算出の注目度): 0.2867517731896504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Honeypots are essential tools in cybersecurity. However, most of them (even
the high-interaction ones) lack the required realism to engage and fool human
attackers. This limitation makes them easily discernible, hindering their
effectiveness. This work introduces a novel method to create dynamic and
realistic software honeypots based on Large Language Models. Preliminary
results indicate that LLMs can create credible and dynamic honeypots capable of
addressing important limitations of previous honeypots, such as deterministic
responses, lack of adaptability, etc. We evaluated the realism of each command
by conducting an experiment with human attackers who needed to say if the
answer from the honeypot was fake or not. Our proposed honeypot, called shelLM,
reached an accuracy of 0.92. The source code and prompts necessary for
replicating the experiments have been made publicly available.
- Abstract(参考訳): ハニーポットはサイバーセキュリティの重要なツールです。
しかし、そのほとんどが(高相互作用でさえ)人間の攻撃者を騙すために必要な現実主義を欠いている。
この制限は容易に識別でき、効果を阻害する。
この研究は、大規模言語モデルに基づく動的で現実的なソフトウェアハニーポットを作成する新しい方法を紹介します。
予備的な結果は、LCMは、決定論的応答、適応性の欠如など、以前のハニーポットの重要な制限に対処できる、信頼できる動的ハニーポットを作成できることを示している。
我々は,ハニーポットからの回答が偽物であるかどうかを問う人間の攻撃者を対象に実験を行い,各コマンドのリアリズムを評価した。
提案したミツバチはShelLMと呼ばれ,精度は0.92。
実験を複製するために必要なソースコードとプロンプトが公開されている。
関連論文リスト
- Assessing LLMs in Malicious Code Deobfuscation of Real-world Malware Campaigns [7.776434991976473]
本稿では,大規模言語モデル(LLM)の難読化機能について検討する。
我々は,悪名高いEmotetマルウェアキャンペーンで使用されている現実の悪意のあるスクリプトを用いた4つのLSMを評価した。
以上の結果から,まだ完全には正確ではないものの,これらのペイロードを効率よく除去できるLCMが存在することが示唆された。
論文 参考訳(メタデータ) (2024-04-30T17:06:27Z) - Act as a Honeytoken Generator! An Investigation into Honeytoken Generation with Large Language Models [3.976191782353992]
この研究は、詐欺ベースの防衛戦略の重要な構成要素であるハネトケンの設計におけるスケーラビリティの課題に対処する。
これらの制約を克服するために、この研究は大規模言語モデル(LLM)を用いて様々なハニトケンを作成するアプローチを体系的に研究する。
ロボット.txtファイルとハニーワードの生成は、16のプロンプトビルディングブロックに基づいて、210の異なるプロンプト構造を体系的にテストするために使用された。
論文 参考訳(メタデータ) (2024-04-24T18:18:56Z) - Sandwich attack: Multi-language Mixture Adaptive Attack on LLMs [9.254047358707014]
我々はemphSandwich攻撃と呼ばれる新しいブラックボックス攻撃ベクトル、多言語混合攻撃を導入する。
GoogleのBard, Gemini Pro, LLaMA-2-70-B-Chat, GPT-3.5-Turbo, GPT-4, Claude-3-OPUS の5つの異なるモデルを用いた実験により, この攻撃ベクトルは敵が有害な応答を生成するために使用できることを示した。
論文 参考訳(メタデータ) (2024-04-09T18:29:42Z) - Gradient Cuff: Detecting Jailbreak Attacks on Large Language Models by
Exploring Refusal Loss Landscapes [69.5883095262619]
大規模言語モデル(LLM)は、ユーザがクエリを入力し、LLMが回答を生成する、顕著な生成AIツールになりつつある。
害と誤用を減らすため、人間のフィードバックからの強化学習のような高度な訓練技術を用いて、これらのLLMを人間の価値に合わせる努力がなされている。
近年の研究では、組込み安全ガードレールを転覆させようとする敵のジェイルブレイクの試みに対するLLMの脆弱性を強調している。
本稿では,脱獄を検知するGradient Cuffという手法を提案する。
論文 参考訳(メタデータ) (2024-03-01T03:29:54Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - Optimally Blending Honeypots into Production Networks: Hardness and Algorithms [11.847370655794608]
ハニーポットは攻撃者の新たな攻撃を暴露する重要なサイバー防御技術である。
本稿では,ハニーポットの展開という新たなパラダイムのサイバーセキュリティ効果を特徴付けるための系統的研究を開始する。
論文 参考訳(メタデータ) (2024-01-12T18:54:51Z) - DeceptPrompt: Exploiting LLM-driven Code Generation via Adversarial
Natural Language Instructions [27.489622263456983]
DeceptPromptは、コードLLMを駆動し、脆弱性のある機能の正しいコードを生成する、逆の自然言語命令を生成するアルゴリズムである。
最適化プレフィックス/サフィックスを適用する場合、アタック成功率(ASR)はプレフィックス/サフィックスを適用せずに平均50%向上する。
論文 参考訳(メタデータ) (2023-12-07T22:19:06Z) - Automatic Hallucination Assessment for Aligned Large Language Models via
Transferable Adversarial Attacks [98.22864957942821]
本稿では,大規模言語モデルが忠実に振る舞う既存データを適切に修正し,評価データを自動的に生成する手法を開発することを目的とする。
具体的には,LLM ベースのフレームワークである Auto Debug について述べる。
実験結果から, LLMは, インプロンプトに与えられた知識とパラメトリック知識との間に矛盾がある場合, 質問応答シナリオの2つのカテゴリに幻覚を与える可能性が示唆された。
論文 参考訳(メタデータ) (2023-10-19T06:37:32Z) - Large Language Models Cannot Self-Correct Reasoning Yet [78.16697476530994]
LLM(Large Language Models)は、非並列テキスト生成機能を備えた画期的な技術として登場した。
生成したコンテンツの正確性と適切性に関する懸念が続いている。
現代の方法論である自己補正がこれらの問題に対する対策として提案されている。
論文 参考訳(メタデータ) (2023-10-03T04:56:12Z) - Check Your Facts and Try Again: Improving Large Language Models with
External Knowledge and Automated Feedback [127.75419038610455]
大規模言語モデル(LLM)は、ダウンストリームタスクの多くに対して、人間のような、流動的な応答を生成することができる。
本稿では,プラグ・アンド・プレイモジュールのセットでブラックボックスのLSMを増強するLSM-Augmenterシステムを提案する。
論文 参考訳(メタデータ) (2023-02-24T18:48:43Z) - Guiding Pretraining in Reinforcement Learning with Large Language Models [133.32146904055233]
テキストコーパスからの背景知識を用いて探索を図形化する手法について述べる。
このメソッドはELLMと呼ばれ、言語モデルによって提案される目標を達成するエージェントに報酬を与える。
大規模な言語モデルの事前訓練を活用することで、ELLMはエージェントをループに人間を必要とせず、人間に有意義で、もっとも有用な行動へと導く。
論文 参考訳(メタデータ) (2023-02-13T21:16:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。