論文の概要: SBASH: a Framework for Designing and Evaluating RAG vs. Prompt-Tuned LLM Honeypots
- arxiv url: http://arxiv.org/abs/2510.21459v1
- Date: Fri, 24 Oct 2025 13:41:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.490803
- Title: SBASH: a Framework for Designing and Evaluating RAG vs. Prompt-Tuned LLM Honeypots
- Title(参考訳): SBASH: RAG vs. Prompt-Tuned LLM Honeypotsの設計と評価のためのフレームワーク
- Authors: Adetayo Adebimpe, Helmut Neukirchen, Thomas Welsh,
- Abstract要約: ハニーポット(Honeypots)は、価値ある脅威情報を集めたり、攻撃者を生産システムから遠ざけるために使われるデコイシステムである。
本稿では,軽量なローカルLCMを用いてデータ保護問題を管理するシステムベース注意型シェルハニーポットフレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Honeypots are decoy systems used for gathering valuable threat intelligence or diverting attackers away from production systems. Maximising attacker engagement is essential to their utility. However research has highlighted that context-awareness, such as the ability to respond to new attack types, systems and attacker agents, is necessary to increase engagement. Large Language Models (LLMs) have been shown as one approach to increase context awareness but suffer from several challenges including accuracy and timeliness of response time, high operational costs and data-protection issues due to cloud deployment. We propose the System-Based Attention Shell Honeypot (SBASH) framework which manages data-protection issues through the use of lightweight local LLMs. We investigate the use of Retrieval Augmented Generation (RAG) supported LLMs and non-RAG LLMs for Linux shell commands and evaluate them using several different metrics such as response time differences, realism from human testers, and similarity to a real system calculated with Levenshtein distance, SBert, and BertScore. We show that RAG improves accuracy for untuned models while models that have been tuned via a system prompt that tells the LLM to respond like a Linux system achieve without RAG a similar accuracy as untuned with RAG, while having a slightly lower latency.
- Abstract(参考訳): ハニーポット(Honeypots)は、価値ある脅威情報を集めたり、攻撃者を生産システムから遠ざけるために使われるデコイシステムである。
攻撃者のエンゲージメントの最大化は、彼らのユーティリティに不可欠である。
しかし、新たな攻撃タイプやシステム、攻撃エージェントに対応する能力など、コンテキスト認識はエンゲージメントを高めるために必要である、と研究は強調している。
大きな言語モデル(LLM)は、コンテキスト認識を高めるための1つのアプローチとして示されているが、応答時間の正確性やタイムライン、高い運用コスト、クラウドデプロイメントによるデータ保護の問題など、いくつかの課題に悩まされている。
本稿では,SBASH(System-Based Attention Shell Honeypot)フレームワークを提案する。
Retrieval Augmented Generation (RAG) によるLinuxシェルコマンドのLLMおよび非RAG LLMの使用について検討し、応答時間差、人間テスターのリアリズム、レベンシュテイン距離、SBert、BertScoreで計算された実システムとの類似性など、いくつかの異なる指標を用いて評価した。
RAGが未修正モデルの精度を向上させる一方で,システムプロンプトによって調整されたモデルでは,RAGとRAGとの類似の精度を伴わずに,LLMにLinuxシステムのように応答するように指示する。
関連論文リスト
- ParaVul: A Parallel Large Language Model and Retrieval-Augmented Framework for Smart Contract Vulnerability Detection [43.41293570032631]
ParaVulは、スマートコントラクト脆弱性検出の信頼性と精度を向上させるための、検索強化フレームワークである。
LLM微調整のためのスパースローランド適応(SLoRA)を開発した。
脆弱性契約データセットを構築し,RAG(Retrieval-Augmented Generation)システムを開発した。
論文 参考訳(メタデータ) (2025-10-20T03:23:41Z) - REFRAG: Rethinking RAG based Decoding [67.4862300145604]
REFRAGは効率的なデコードフレームワークで、RAGアプリケーションの遅延を圧縮し、感知し、拡張し、改善する。
本稿では,RAG,マルチターン会話,長期文書要約など,多種多様な長文タスクを対象としたREFRAGの厳密な検証を行う。
論文 参考訳(メタデータ) (2025-09-01T03:31:44Z) - Phishing Detection in the Gen-AI Era: Quantized LLMs vs Classical Models [1.4999444543328293]
フィッシング攻撃はますます洗練され、高精度と計算効率のバランスをとる検知システムの必要性が強調されている。
本稿では、フィッシング検出のための従来の機械学習(ML)、ディープラーニング(DL)、および量子化された小パラメータ大規模言語モデル(LLM)の比較評価を行う。
現在,LLMはML法やDL法に比べて精度が低いが,文脈に基づく微妙なフィッシング手法を識別する可能性が強い。
論文 参考訳(メタデータ) (2025-07-10T04:01:52Z) - Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [65.18157595903124]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - System Prompt Extraction Attacks and Defenses in Large Language Models [2.6986500640871482]
大規模言語モデル(LLM)におけるシステムプロンプトは、モデルの振る舞いと応答生成を導く上で重要な役割を果たす。
近年の研究では、LLMシステムプロンプトは、厳密に設計されたクエリによる攻撃の抽出に非常に敏感であることが示されている。
脅威が増大しているにもかかわらず、システムによる攻撃と防御の促進に関する体系的な研究が欠如している。
論文 参考訳(メタデータ) (2025-05-27T21:36:27Z) - Adversarial Reasoning at Jailbreaking Time [49.70772424278124]
大規模言語モデル(LLM)は、より有能で広く普及している。
テスト時間計算の標準化, 測定, スケーリングの最近の進歩は, ハードタスクにおける高い性能を達成するためにモデルを最適化するための新しい手法を提案する。
本稿では、これらの進歩をジェイルブレイクモデルに応用し、協調LDMから有害な応答を誘発する。
論文 参考訳(メタデータ) (2025-02-03T18:59:01Z) - Adversarial Vulnerabilities in Large Language Models for Time Series Forecasting [14.579802892916101]
大規模言語モデル(LLM)は、最近、時系列予測において大きな可能性を証明している。
しかし、現実世界のアプリケーションにおける堅牢性と信頼性は、まだ未調査のままである。
LLMに基づく時系列予測のためのターゲット対向攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T04:53:15Z) - Evaluating and Improving the Robustness of Security Attack Detectors Generated by LLMs [6.517076600304129]
大規模言語モデル(LLM)は、セキュリティ要件を実装するアタック検出器などの関数を生成するために、ソフトウェア開発でますます使われている。
本稿では,LLMパイプラインに検索拡張生成(RAG)とセルフランキングを統合するアプローチを提案する。
RAGは外部知識源を取り入れて出力の堅牢性を高める一方、自己整合性の概念にインスパイアされたセルフランキング技術は複数の推論経路を生成し、最も堅牢な検出器を選択するランクを生成する。
論文 参考訳(メタデータ) (2024-11-27T10:48:37Z) - ThinkNote: Enhancing Knowledge Integration and Utilization of Large Language Models via Constructivist Cognition Modeling [55.21641515545307]
大規模言語モデル(LLM)は、幅広いNLPタスクにおいて強力なパフォーマンスを示している。
それらはしばしば、不慣れな外部情報に晒されたとき、最適でない行動と矛盾を示す。
本稿では,LLMの外部知識活用を促進する新しいフレームワークであるThinkNoteを提案する。
論文 参考訳(メタデータ) (2024-02-21T06:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。