論文の概要: VelLMes: A high-interaction AI-based deception framework
- arxiv url: http://arxiv.org/abs/2510.06975v1
- Date: Wed, 08 Oct 2025 13:00:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 16:41:20.501997
- Title: VelLMes: A high-interaction AI-based deception framework
- Title(参考訳): VelLMes: ハイインタラクションなAIベースの騙しフレームワーク
- Authors: Muris Sladić, Veronica Valeros, Carlos Catania, Sebastian Garcia,
- Abstract要約: 本稿では,VelLMesと呼ばれるAIによる偽装フレームワークを提案する。
VelLMesは人間に攻撃されるように設計されているため、対話性とリアリズムがそのパフォーマンスの鍵となる。
生成能力と偽装能力を評価した。
- 参考スコア(独自算出の注目度): 0.3499870393443268
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: There are very few SotA deception systems based on Large Language Models. The existing ones are limited only to simulating one type of service, mainly SSH shells. These systems - but also the deception technologies not based on LLMs - lack an extensive evaluation that includes human attackers. Generative AI has recently become a valuable asset for cybersecurity researchers and practitioners, and the field of cyber-deception is no exception. Researchers have demonstrated how LLMs can be leveraged to create realistic-looking honeytokens, fake users, and even simulated systems that can be used as honeypots. This paper presents an AI-based deception framework called VelLMes, which can simulate multiple protocols and services such as SSH Linux shell, MySQL, POP3, and HTTP. All of these can be deployed and used as honeypots, thus VelLMes offers a variety of choices for deception design based on the users' needs. VelLMes is designed to be attacked by humans, so interactivity and realism are key for its performance. We evaluate the generative capabilities and the deception capabilities. Generative capabilities were evaluated using unit tests for LLMs. The results of the unit tests show that, with careful prompting, LLMs can produce realistic-looking responses, with some LLMs having a 100% passing rate. In the case of the SSH Linux shell, we evaluated deception capabilities with 89 human attackers. The results showed that about 30% of the attackers thought that they were interacting with a real system when they were assigned an LLM-based honeypot. Lastly, we deployed 10 instances of the SSH Linux shell honeypot on the Internet to capture real-life attacks. Analysis of these attacks showed us that LLM honeypots simulating Linux shells can perform well against unstructured and unexpected attacks on the Internet, responding correctly to most of the issued commands.
- Abstract(参考訳): 大規模言語モデルに基づくSotA偽造システムはほとんどない。
既存のものは、SSHシェルを中心に、ひとつのタイプのサービスのシミュレートに限られている。
これらのシステム - また、LLMをベースとしない騙し技術 - は、人間の攻撃者を含む広範な評価を欠いている。
ジェネレーティブAIは最近、サイバーセキュリティ研究者や実践家にとって貴重な資産となり、サイバー詐欺の分野は例外ではない。
研究者たちは、LLMを使って現実的なハネトケン、フェイクユーザー、さらにはハネポットとして使えるシミュレートされたシステムを作る方法を実証した。
本稿では、SSH Linux shell、MySQL、POP3、HTTPなどの複数のプロトコルやサービスをシミュレートする、VelLMesと呼ばれるAIベースの偽造フレームワークを提案する。
これらはすべて、ハニーポットとしてデプロイおよび使用することができるため、VelLMesは、ユーザのニーズに基づいて、偽造設計のためのさまざまな選択肢を提供する。
VelLMesは人間に攻撃されるように設計されているため、対話性とリアリズムがそのパフォーマンスの鍵となる。
生成能力と偽装能力を評価した。
LLMの単体試験による生成能力の評価を行った。
単体試験の結果から,LLMが100%通過率を持つような現実的な応答を生成できることが示唆された。
SSH Linuxシェルの場合,89人の攻撃者による偽装能力の評価を行った。
その結果、攻撃者の約30%は、LLMベースのハニーポットが割り当てられたときに、実際のシステムと相互作用していると考えた。
最後に、SSH Linuxシェルハニーポットの10のインスタンスをインターネット上に展開し、実際の攻撃を捉えました。
これらの攻撃を解析したところ、LinuxシェルをシミュレートしたLLMミツバチは、インターネット上の予期せぬ非構造攻撃に対してうまく対応でき、ほとんどのコマンドに正しく応答することがわかった。
関連論文リスト
- Analysis of LLMs Against Prompt Injection and Jailbreak Attacks [7.685814179879813]
この研究は、大規模な手動でキュレートされたデータセットを使用して、プロンプトインジェクションとジェイルブレイクの脆弱性を評価する。
内部安全機構によって引き起こされる、拒絶応答や完全な無声応答を含むモデル間での行動変化を観察する。
論文 参考訳(メタデータ) (2026-02-24T12:32:11Z) - Assessing Spear-Phishing Website Generation in Large Language Model Coding Agents [0.10195618602298682]
大規模言語モデルは、コンピュータプログラミングでますます使われている。
この研究は、異なるLLMの能力と潜在的に危険なコードベースを生成する意志を比較します。
解析の結果, LLMの計測値とスピアフィッシングサイトの生成性能の相関性はますます低くなった。
論文 参考訳(メタデータ) (2026-02-13T12:12:53Z) - LLM-in-Sandbox Elicits General Agentic Intelligence [142.7174116109795]
我々はLLM-in-Sandboxを導入し、LLMがコードサンドボックス(仮想コンピュータ)内で探索し、非コードドメインの汎用インテリジェンスを引き出すことを可能にする。
コードサンドボックスを非コードタスクに活用するための一般化機能を示す。
実験により、LLM-in-Sandboxは、無訓練と後訓練の両方の環境で、数学、物理学、化学、生医学、長文理解、そして次の指示にまたがる堅牢な一般化を実現することが示された。
論文 参考訳(メタデータ) (2026-01-22T18:57:09Z) - Can LLMs effectively provide game-theoretic-based scenarios for cybersecurity? [51.96049148869987]
大規模言語モデル(LLM)は、コンピュータシステムのセキュリティに新しいツールと課題を提供する。
従来のゲーム理論フレームワークが,LLM駆動型アクターやボットの動作を効果的に捉えることができるかどうかを検討する。
論文 参考訳(メタデータ) (2025-08-04T08:57:14Z) - SecAlign: Defending Against Prompt Injection with Preference Optimization [52.48001255555192]
敵のプロンプトは外部のデータソースに注入され、システムの意図した命令をオーバーライドし、悪意のある命令を実行する。
我々は、好みの最適化技術に基づくSecAlignと呼ばれる新しいディフェンスを提案する。
本手法は,訓練中に見られたものよりもはるかに高度な攻撃に対しても,様々なプロンプトインジェクションの成功率を10%に下げる。
論文 参考訳(メタデータ) (2024-10-07T19:34:35Z) - Human-Interpretable Adversarial Prompt Attack on Large Language Models with Situational Context [49.13497493053742]
本研究は,無意味な接尾辞攻撃を状況駆動型文脈書き換えによって意味のあるプロンプトに変換することを検討する。
我々は、独立して意味のある敵の挿入と映画から派生した状況を組み合わせて、LLMを騙せるかどうかを確認します。
当社のアプローチでは,オープンソースとプロプライエタリなLLMの両方で,状況駆動型攻撃を成功させることが実証されている。
論文 参考訳(メタデータ) (2024-07-19T19:47:26Z) - BadRobot: Jailbreaking Embodied LLMs in the Physical World [20.96351292684658]
Embodied AIは、AIが物理的エンティティに統合されるシステムを表す。
大きな言語モデル(LLM)は強力な言語理解能力を示す。
我々は,従来の音声ベースのユーザシステムインタラクションを通じて,LLMを安全性や倫理的制約に違反させることを目的とした,新たな攻撃パラダイムであるBadRobotを紹介した。
論文 参考訳(メタデータ) (2024-07-16T13:13:16Z) - AutoAttacker: A Large Language Model Guided System to Implement
Automatic Cyber-attacks [13.955084410934694]
大規模言語モデル (LLM) は、自然言語処理における印象的な結果を示している。
LLMは必然的に前進するので、前と後の両方の攻撃段階を自動化できるかもしれない。
この研究は、防衛システムやチームが、野生で使用する前に予防的に新しい攻撃行動を検出することを学ぶのに役立つ。
論文 参考訳(メタデータ) (2024-03-02T00:10:45Z) - Coercing LLMs to do and reveal (almost) anything [80.8601180293558]
大規模言語モデル(LLM)に対する敵対的攻撃は、有害なステートメントを作るためにモデルを「ジェイルブレイク」することができることが示されている。
LLMに対する敵対的攻撃のスペクトルは単なるジェイルブレイクよりもはるかに大きいと我々は主張する。
論文 参考訳(メタデータ) (2024-02-21T18:59:13Z) - SmoothLLM: Defending Large Language Models Against Jailbreaking Attacks [99.23352758320945]
SmoothLLMは,大規模言語モデル(LLM)に対するジェイルブレーキング攻撃を軽減するために設計された,最初のアルゴリズムである。
敵が生成したプロンプトが文字レベルの変化に対して脆弱であることから、我々の防衛はまず、与えられた入力プロンプトの複数のコピーをランダムに摂動し、対応する予測を集約し、敵の入力を検出する。
論文 参考訳(メタデータ) (2023-10-05T17:01:53Z) - LLM in the Shell: Generative Honeypots [0.26249027950824505]
ハニーポットはサイバーセキュリティにおいて、早期発見、脅威情報収集、攻撃者の行動分析に不可欠なツールである。
この研究は、Linuxライクなシェル出力を生成するLarge Language Modelsをベースとした、動的で現実的なソフトウェアハニーポットであるShelLMを導入している。
論文 参考訳(メタデータ) (2023-08-31T22:05:46Z) - Not what you've signed up for: Compromising Real-World LLM-Integrated
Applications with Indirect Prompt Injection [64.67495502772866]
大規模言語モデル(LLM)は、様々なアプリケーションに統合されつつある。
本稿では、プロンプトインジェクション攻撃を用いて、攻撃者が元の命令をオーバーライドし、制御を採用する方法を示す。
我々は、コンピュータセキュリティの観点から、影響や脆弱性を体系的に調査する包括的な分類法を導出する。
論文 参考訳(メタデータ) (2023-02-23T17:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。