論文の概要: VelLMes: A high-interaction AI-based deception framework
- arxiv url: http://arxiv.org/abs/2510.06975v1
- Date: Wed, 08 Oct 2025 13:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.501997
- Title: VelLMes: A high-interaction AI-based deception framework
- Title(参考訳): VelLMes: ハイインタラクションなAIベースの騙しフレームワーク
- Authors: Muris Sladić, Veronica Valeros, Carlos Catania, Sebastian Garcia,
- Abstract要約: 本稿では,VelLMesと呼ばれるAIによる偽装フレームワークを提案する。
VelLMesは人間に攻撃されるように設計されているため、対話性とリアリズムがそのパフォーマンスの鍵となる。
生成能力と偽装能力を評価した。
- 参考スコア(独自算出の注目度): 0.3499870393443268
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There are very few SotA deception systems based on Large Language Models. The existing ones are limited only to simulating one type of service, mainly SSH shells. These systems - but also the deception technologies not based on LLMs - lack an extensive evaluation that includes human attackers. Generative AI has recently become a valuable asset for cybersecurity researchers and practitioners, and the field of cyber-deception is no exception. Researchers have demonstrated how LLMs can be leveraged to create realistic-looking honeytokens, fake users, and even simulated systems that can be used as honeypots. This paper presents an AI-based deception framework called VelLMes, which can simulate multiple protocols and services such as SSH Linux shell, MySQL, POP3, and HTTP. All of these can be deployed and used as honeypots, thus VelLMes offers a variety of choices for deception design based on the users' needs. VelLMes is designed to be attacked by humans, so interactivity and realism are key for its performance. We evaluate the generative capabilities and the deception capabilities. Generative capabilities were evaluated using unit tests for LLMs. The results of the unit tests show that, with careful prompting, LLMs can produce realistic-looking responses, with some LLMs having a 100% passing rate. In the case of the SSH Linux shell, we evaluated deception capabilities with 89 human attackers. The results showed that about 30% of the attackers thought that they were interacting with a real system when they were assigned an LLM-based honeypot. Lastly, we deployed 10 instances of the SSH Linux shell honeypot on the Internet to capture real-life attacks. Analysis of these attacks showed us that LLM honeypots simulating Linux shells can perform well against unstructured and unexpected attacks on the Internet, responding correctly to most of the issued commands.
- Abstract(参考訳): 大規模言語モデルに基づくSotA偽造システムはほとんどない。
既存のものは、SSHシェルを中心に、ひとつのタイプのサービスのシミュレートに限られている。
これらのシステム - また、LLMをベースとしない騙し技術 - は、人間の攻撃者を含む広範な評価を欠いている。
ジェネレーティブAIは最近、サイバーセキュリティ研究者や実践家にとって貴重な資産となり、サイバー詐欺の分野は例外ではない。
研究者たちは、LLMを使って現実的なハネトケン、フェイクユーザー、さらにはハネポットとして使えるシミュレートされたシステムを作る方法を実証した。
本稿では、SSH Linux shell、MySQL、POP3、HTTPなどの複数のプロトコルやサービスをシミュレートする、VelLMesと呼ばれるAIベースの偽造フレームワークを提案する。
これらはすべて、ハニーポットとしてデプロイおよび使用することができるため、VelLMesは、ユーザのニーズに基づいて、偽造設計のためのさまざまな選択肢を提供する。
VelLMesは人間に攻撃されるように設計されているため、対話性とリアリズムがそのパフォーマンスの鍵となる。
生成能力と偽装能力を評価した。
LLMの単体試験による生成能力の評価を行った。
単体試験の結果から,LLMが100%通過率を持つような現実的な応答を生成できることが示唆された。
SSH Linuxシェルの場合,89人の攻撃者による偽装能力の評価を行った。
その結果、攻撃者の約30%は、LLMベースのハニーポットが割り当てられたときに、実際のシステムと相互作用していると考えた。
最後に、SSH Linuxシェルハニーポットの10のインスタンスをインターネット上に展開し、実際の攻撃を捉えました。
これらの攻撃を解析したところ、LinuxシェルをシミュレートしたLLMミツバチは、インターネット上の予期せぬ非構造攻撃に対してうまく対応でき、ほとんどのコマンドに正しく応答することがわかった。
関連論文リスト
- Can LLMs effectively provide game-theoretic-based scenarios for cybersecurity? [51.96049148869987]
大規模言語モデル(LLM)は、コンピュータシステムのセキュリティに新しいツールと課題を提供する。
従来のゲーム理論フレームワークが,LLM駆動型アクターやボットの動作を効果的に捉えることができるかどうかを検討する。
論文 参考訳(メタデータ) (2025-08-04T08:57:14Z) - SecAlign: Defending Against Prompt Injection with Preference Optimization [52.48001255555192]
敵のプロンプトは外部のデータソースに注入され、システムの意図した命令をオーバーライドし、悪意のある命令を実行する。
我々は、好みの最適化技術に基づくSecAlignと呼ばれる新しいディフェンスを提案する。
本手法は,訓練中に見られたものよりもはるかに高度な攻撃に対しても,様々なプロンプトインジェクションの成功率を10%に下げる。
論文 参考訳(メタデータ) (2024-10-07T19:34:35Z) - Human-Interpretable Adversarial Prompt Attack on Large Language Models with Situational Context [49.13497493053742]
本研究は,無意味な接尾辞攻撃を状況駆動型文脈書き換えによって意味のあるプロンプトに変換することを検討する。
我々は、独立して意味のある敵の挿入と映画から派生した状況を組み合わせて、LLMを騙せるかどうかを確認します。
当社のアプローチでは,オープンソースとプロプライエタリなLLMの両方で,状況駆動型攻撃を成功させることが実証されている。
論文 参考訳(メタデータ) (2024-07-19T19:47:26Z) - AutoAttacker: A Large Language Model Guided System to Implement
Automatic Cyber-attacks [13.955084410934694]
大規模言語モデル (LLM) は、自然言語処理における印象的な結果を示している。
LLMは必然的に前進するので、前と後の両方の攻撃段階を自動化できるかもしれない。
この研究は、防衛システムやチームが、野生で使用する前に予防的に新しい攻撃行動を検出することを学ぶのに役立つ。
論文 参考訳(メタデータ) (2024-03-02T00:10:45Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - LLM in the Shell: Generative Honeypots [0.26249027950824505]
ハニーポットはサイバーセキュリティにおいて、早期発見、脅威情報収集、攻撃者の行動分析に不可欠なツールである。
この研究は、Linuxライクなシェル出力を生成するLarge Language Modelsをベースとした、動的で現実的なソフトウェアハニーポットであるShelLMを導入している。
論文 参考訳(メタデータ) (2023-08-31T22:05:46Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。