論文の概要: Design and Development of an Intelligent LLM-based LDAP Honeypot
- arxiv url: http://arxiv.org/abs/2509.16682v1
- Date: Sat, 20 Sep 2025 13:16:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:15.924183
- Title: Design and Development of an Intelligent LLM-based LDAP Honeypot
- Title(参考訳): LLMを用いたLDAPハニーポットの設計と開発
- Authors: Javier Jiménez-Román, Florina Almenares-Mendoza, Alfonso Sánchez-Macián,
- Abstract要約: ハニーポットはその価値を証明しているが、伝統的に剛性と構成の複雑さによって制限されてきた。
提案したソリューションは、攻撃者と説得力のある対話が可能な、柔軟で現実的なツールを提供することを目的としている。
- 参考スコア(独自算出の注目度): 0.3823356975862005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Cybersecurity threats continue to increase, with a growing number of previously unknown attacks each year targeting both large corporations and smaller entities. This scenario demands the implementation of advanced security measures, not only to mitigate damage but also to anticipate emerging attack trends. In this context, deception tools have become a key strategy, enabling the detection, deterrence, and deception of potential attackers while facilitating the collection of information about their tactics and methods. Among these tools, honeypots have proven their value, although they have traditionally been limited by rigidity and configuration complexity, hindering their adaptability to dynamic scenarios. The rise of artificial intelligence, and particularly general-purpose Large Language Models (LLMs), is driving the development of new deception solutions capable of offering greater adaptability and ease of use. This work proposes the design and implementation of an LLM-based honeypot to simulate an LDAP server, a critical protocol present in most organizations due to its central role in identity and access management. The proposed solution aims to provide a flexible and realistic tool capable of convincingly interacting with attackers, thereby contributing to early detection and threat analysis while enhancing the defensive capabilities of infrastructures against intrusions targeting this service.
- Abstract(参考訳): サイバーセキュリティの脅威は増え続けており、毎年、大企業と小規模企業の両方をターゲットにした、未知の攻撃が増えている。
このシナリオは、損傷を緩和するだけでなく、新たな攻撃トレンドを予想するためにも、高度なセキュリティ対策を実施する必要がある。
この文脈では、偽装ツールが重要な戦略となり、潜在的な攻撃者の検出、抑止、偽装を可能にしつつ、彼らの戦術や方法に関する情報の収集を容易にしている。
これらのツールの中で、ミツバチはその価値を証明してきたが、伝統的に剛性と構成の複雑さによって制限され、動的シナリオへの適応性を妨げてきた。
人工知能の台頭、特に汎用のLarge Language Models (LLMs) は、より適応性と使いやすさを提供する新しい偽造ソリューションの開発を推進している。
本研究では、LDAPサーバをシミュレートするLLMベースのハニーポットの設計と実装を提案する。
提案ソリューションは,攻撃者に対して説得力のある対話が可能な,フレキシブルで現実的なツールの提供を目的としている。これにより,攻撃者に対する攻撃に対するインフラストラクチャの防御能力を向上しつつ,早期検出と脅威分析に寄与する。
関連論文リスト
- Securing AI Agents: Implementing Role-Based Access Control for Industrial Applications [0.0]
産業環境では、AIエージェントは意思決定、予測保守、プロセス最適化を強化することでオペレーションを変革している。
これらの進歩にもかかわらず、AIエージェントは、迅速なインジェクション攻撃を含む、セキュリティ上の脅威に弱いままである。
本稿では,RBAC(Role-Based Access Control)をAIエージェントに統合し,堅牢なセキュリティガードレールを提供するフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-14T20:58:08Z) - A Survey on Autonomy-Induced Security Risks in Large Model-Based Agents [45.53643260046778]
大規模言語モデル(LLM)の最近の進歩は、自律型AIエージェントの台頭を触媒している。
これらの大きなモデルエージェントは、静的推論システムからインタラクティブなメモリ拡張エンティティへのパラダイムシフトを示す。
論文 参考訳(メタデータ) (2025-06-30T13:34:34Z) - Progent: Programmable Privilege Control for LLM Agents [46.31581986508561]
本稿では,大規模言語モデルエージェントをセキュアにするための最初の特権制御フレームワークであるProgentを紹介する。
Progentは、潜在的に悪意のあるものをブロックしながら、ユーザタスクに必要なツールコールの実行をエージェントに制限することで、ツールレベルでのセキュリティを強化する。
モジュール設計のおかげで、Progentの統合はエージェント内部を変更せず、既存のエージェントの実装に最小限の変更しか必要としません。
論文 参考訳(メタデータ) (2025-04-16T01:58:40Z) - Intelligent IoT Attack Detection Design via ODLLM with Feature Ranking-based Knowledge Base [0.964942474860411]
IoT(Internet of Things)デバイスは,重大なサイバーセキュリティ上の課題を導入している。
従来の機械学習(ML)技術は、混在するパターンと進化するパターンの複雑さのために、このような攻撃を検出するのに不足することが多い。
本稿では,オンデバイス大規模言語モデル(ODLLMs)を微調整と知識ベース(KB)統合で拡張し,インテリジェントなIoTネットワーク攻撃検出を実現する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-27T16:41:57Z) - Cyber Defense Reinvented: Large Language Models as Threat Intelligence Copilots [36.809323735351825]
CYLENSは、大規模言語モデル(LLM)を利用したサイバー脅威情報通信システムである。
CYLENSは、脅威管理ライフサイクル全体を通じてセキュリティ専門家を支援するように設計されている。
脅威帰属、文脈化、検出、相関、優先順位付け、修復をサポートする。
論文 参考訳(メタデータ) (2025-02-28T07:16:09Z) - Why Are Web AI Agents More Vulnerable Than Standalone LLMs? A Security Analysis [47.34614558636679]
本研究では,WebAIエージェントの脆弱性の増加に寄与する要因について検討する。
我々は,WebAIエージェントの脆弱性を増幅する3つの重要な要因,(1)ユーザの目標をシステムプロンプトに埋め込んだこと,(2)マルチステップアクション生成,(3)観察能力の3つを特定した。
論文 参考訳(メタデータ) (2025-02-27T18:56:26Z) - Commercial LLM Agents Are Already Vulnerable to Simple Yet Dangerous Attacks [88.84977282952602]
最近のMLセキュリティ文献は、整列型大規模言語モデル(LLM)に対する攻撃に焦点を当てている。
本稿では,LLMエージェントに特有のセキュリティとプライバシの脆弱性を分析する。
我々は、人気のあるオープンソースおよび商用エージェントに対する一連の実証的な攻撃を行い、その脆弱性の即時的な影響を実証した。
論文 参考訳(メタデータ) (2025-02-12T17:19:36Z) - AI-based Attacker Models for Enhancing Multi-Stage Cyberattack Simulations in Smart Grids Using Co-Simulation Environments [1.4563527353943984]
スマートグリッドへの移行により、高度なサイバー脅威に対する電力システムの脆弱性が増大した。
本稿では,モジュール型サイバーアタックの実行に自律エージェントを用いたシミュレーションフレームワークを提案する。
当社のアプローチは、データ生成のための柔軟で汎用的なソースを提供し、より高速なプロトタイピングと開発リソースと時間の削減を支援します。
論文 参考訳(メタデータ) (2024-12-05T08:56:38Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。