論文の概要: Toward Intelligent and Secure Cloud: Large Language Model Empowered Proactive Defense
- arxiv url: http://arxiv.org/abs/2412.21051v1
- Date: Mon, 30 Dec 2024 16:09:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-31 16:01:39.078528
- Title: Toward Intelligent and Secure Cloud: Large Language Model Empowered Proactive Defense
- Title(参考訳): インテリジェントでセキュアなクラウドを目指す - プロアクティブディフェンスを活用した大規模言語モデル
- Authors: Yuyang Zhou, Guang Cheng, Kang Du, Zihan Chen,
- Abstract要約: 大規模言語モデル(LLM)は、セキュリティインテリジェンスに対する有望なソリューションを提供する。
LLM-PDは、様々な脅威を積極的に打ち負かす新しい防御アーキテクチャである。
- 参考スコア(独自算出の注目度): 13.313018899494482
- License:
- Abstract: The rapid evolution of cloud computing technologies and the increasing number of cloud applications have provided a large number of benefits in daily lives. However, the diversity and complexity of different components pose a significant challenge to cloud security, especially when dealing with sophisticated and advanced cyberattacks. Recent advancements in generative foundation models (GFMs), particularly in the large language models (LLMs), offer promising solutions for security intelligence. By exploiting the powerful abilities in language understanding, data analysis, task inference, action planning, and code generation, we present LLM-PD, a novel proactive defense architecture that defeats various threats in a proactive manner. LLM-PD can efficiently make a decision through comprehensive data analysis and sequential reasoning, as well as dynamically creating and deploying actionable defense mechanisms on the target cloud. Furthermore, it can flexibly self-evolve based on experience learned from previous interactions and adapt to new attack scenarios without additional training. The experimental results demonstrate its remarkable ability in terms of defense effectiveness and efficiency, particularly highlighting an outstanding success rate when compared with other existing methods.
- Abstract(参考訳): クラウドコンピューティング技術の急速な進化と、ますます多くのクラウドアプリケーションが、日々の生活に多くの利益をもたらしている。
しかし、様々なコンポーネントの多様性と複雑さは、特に高度で高度なサイバー攻撃を扱う場合、クラウドセキュリティに重大な課題をもたらす。
生成基盤モデル(GFM)の最近の進歩、特に大規模言語モデル(LLM)は、セキュリティインテリジェンスに対して有望なソリューションを提供する。
言語理解,データ分析,タスク推論,行動計画,コード生成における強力な能力を活用して,様々な脅威を積極的に打ち負かす新しいプロアクティブディフェンスアーキテクチャ LLM-PD を提案する。
LLM-PDは、総合的なデータ分析とシーケンシャルな推論を通じて効率的に意思決定できると同時に、ターゲットクラウド上で実行可能な防御機構を動的に作成および展開することができる。
さらに、以前のインタラクションから学んだ経験に基づいて柔軟に自己進化し、追加のトレーニングなしで新たな攻撃シナリオに適応することができる。
実験の結果, 防衛効果, 効率の面では顕著な能力を示し, 既存の方法と比較して, 特に顕著な成功率を示した。
関連論文リスト
- Jailbreaking and Mitigation of Vulnerabilities in Large Language Models [4.564507064383306]
大規模言語モデル(LLM)は、自然言語の理解と生成を前進させることで、人工知能を変革した。
これらの進歩にもかかわらず、LSMは、特に注射と脱獄攻撃を急ぐために、かなりの脆弱性を示してきた。
このレビューでは、これらの脆弱性についての研究状況を分析し、利用可能な防衛戦略を提示する。
論文 参考訳(メタデータ) (2024-10-20T00:00:56Z) - LLM Honeypot: Leveraging Large Language Models as Advanced Interactive Honeypot Systems [0.0]
ハニーポット(Honeypot)は、攻撃者を誘惑し、相互作用させるように設計されたデコイシステムである。
我々は,大規模言語モデルを用いて,現実的でインタラクティブなハニーポットシステムを構築するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-12T17:33:06Z) - A Survey of Attacks on Large Vision-Language Models: Resources, Advances, and Future Trends [78.3201480023907]
LVLM(Large Vision-Language Models)は、多モーダルな理解と推論タスクにまたがる顕著な能力を示す。
LVLMの脆弱性は比較的過小評価されており、日々の使用において潜在的なセキュリティリスクを生じさせる。
本稿では,既存のLVLM攻撃の様々な形態について概説する。
論文 参考訳(メタデータ) (2024-07-10T06:57:58Z) - Unique Security and Privacy Threats of Large Language Model: A Comprehensive Survey [46.19229410404056]
大規模言語モデル(LLM)は自然言語処理において顕著な進歩を遂げた。
これらのモデルは、強力な言語理解と生成能力を示すために、広大なデータセットでトレーニングされている。
プライバシーとセキュリティの問題は、そのライフサイクルを通じて明らかになっている。
論文 参考訳(メタデータ) (2024-06-12T07:55:32Z) - A Comprehensive Overview of Large Language Models (LLMs) for Cyber Defences: Opportunities and Directions [12.044950530380563]
最近のLLM(Large Language Models)の進歩は、データ中心のアプリケーション分野で大きな成功を収めている。
サイバー防衛部門におけるLSMの最近の活動の概要について概説する。
トランスフォーマー, 事前学習トランスフォーマー, GPTからのLCMの進行に関する基本的な概念を述べる。
論文 参考訳(メタデータ) (2024-05-23T12:19:07Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - ISSF: The Intelligent Security Service Framework for Cloud-Native Operation [0.2867517731896504]
本研究は、クラウドネイティブ操作のためのエージェントベースのインテリジェントセキュリティサービスフレームワーク(ISSF)を開発する。
これには、クラウドネイティブ環境を表現する動的アクセスグラフモデルと、攻撃と防御のアクションを表現するアクションモデルが含まれている。
実験により、当社のフレームワークは、ディフェンダーのためのクラウドネイティブシステムのセキュリティ姿勢を十分にモデル化できることが示された。
論文 参考訳(メタデータ) (2024-03-03T13:13:06Z) - Privacy in Large Language Models: Attacks, Defenses and Future Directions [84.73301039987128]
大規模言語モデル(LLM)を対象とした現在のプライバシ攻撃を分析し、敵の想定能力に応じて分類する。
本稿では、これらのプライバシー攻撃に対抗するために開発された防衛戦略について概説する。
論文 参考訳(メタデータ) (2023-10-16T13:23:54Z) - Baseline Defenses for Adversarial Attacks Against Aligned Language
Models [109.75753454188705]
最近の研究は、テキストのモデレーションが防御をバイパスするジェイルブレイクのプロンプトを生み出すことを示している。
検出(複雑度に基づく)、入力前処理(言い換えと再帰化)、対人訓練の3種類の防衛について検討する。
テキストに対する既存の離散化の弱点と比較的高いコストの最適化が組み合わさって、標準適応攻撃をより困難にしていることがわかった。
論文 参考訳(メタデータ) (2023-09-01T17:59:44Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。