論文の概要: Using LLMs for Tabletop Exercises within the Security Domain
- arxiv url: http://arxiv.org/abs/2403.01626v1
- Date: Sun, 3 Mar 2024 22:15:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 06:29:47.031895
- Title: Using LLMs for Tabletop Exercises within the Security Domain
- Title(参考訳): セキュリティ領域におけるテーブルトップ演習におけるLCMの使用
- Authors: Sam Hays, Dr. Jules White,
- Abstract要約: ChatGPTのような大きな言語モデル(LLM)は魅力的な代替手段を提供する。
より早く実現し、リッチで適応可能なシミュレーションを提供し、フィードバックやレコメンデーションの処理において無限の忍耐を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tabletop exercises are a crucial component of many company's strategy to test and evaluate its preparedness for security incidents in a realistic way. Traditionally led by external firms specializing in cybersecurity, these exercises can be costly, time-consuming, and may not always align precisely with the client's specific needs. Large Language Models (LLMs) like ChatGPT offer a compelling alternative. They enable faster iteration, provide rich and adaptable simulations, and offer infinite patience in handling feedback and recommendations. This approach can enhances the efficiency and relevance of security preparedness exercises.
- Abstract(参考訳): テーブルトップエクササイズは、現実的な方法でセキュリティインシデントの準備をテストし、評価する多くの企業の戦略の重要な要素である。
伝統的に、サイバーセキュリティを専門とする外部企業によって主導され、これらのエクササイズはコストがかかり、時間がかかり、クライアントの特定のニーズと正確に一致するとは限らない。
ChatGPTのような大きな言語モデル(LLM)は魅力的な代替手段を提供する。
より高速なイテレーションを可能にし、リッチで適応可能なシミュレーションを提供し、フィードバックやレコメンデーションの処理において無限の忍耐を提供する。
このアプローチは、セキュリティの準備作業の効率性と関連性を高めることができる。
関連論文リスト
- Efficient and Robust Regularized Federated Recommendation [52.24782464815489]
推薦システム(RSRS)は、ユーザの好みとプライバシの両方に対処する。
通信効率を向上させるために,非一様勾配勾配勾配を取り入れた新しい手法を提案する。
RFRecFの強靭性は、多様なベースラインに比べて優れている。
論文 参考訳(メタデータ) (2024-11-03T12:10:20Z) - Survival of the Safest: Towards Secure Prompt Optimization through Interleaved Multi-Objective Evolution [1.8814321586521556]
SoS(Survival of the Safest)は、革新的な多目的プロンプト最適化フレームワークである。
これは、大きな言語モデルにおけるパフォーマンスとセキュリティの両方を同時に強化する。
SoSは、複雑な高次元の離散探索空間における最適化を高速化するスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2024-10-12T21:16:29Z) - Large Language Models for Base Station Siting: Intelligent Deployment based on Prompt or Agent [62.16747639440893]
大規模言語モデル(LLM)とその関連技術は、特に迅速な工学とエージェント工学の領域において進歩している。
このアプローチは、人間の経験と知識をこれらの洗練されたLLMに注入するために、巧妙なプロンプトの戦略的利用を必要とする。
この統合は、サービスとしての人工知能(AI)と、より容易なAIの将来のパラダイムを表している。
論文 参考訳(メタデータ) (2024-08-07T08:43:32Z) - GPT-Enabled Cybersecurity Training: A Tailored Approach for Effective Awareness [0.0]
本研究では,従来のサイバーセキュリティ意識訓練(CSAT)プログラムの限界について検討する。
GPT(Generative Pre-Trained Transformers)を使ってこれらの欠点に対処する革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2024-05-07T09:08:00Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - SALAD-Bench: A Hierarchical and Comprehensive Safety Benchmark for Large Language Models [107.82336341926134]
SALAD-Benchは、大規模言語モデル(LLM)を評価するために特別に設計された安全ベンチマークである。
それは、その大規模な、豊富な多様性、三つのレベルにまたがる複雑な分類、多目的機能を通じて、従来のベンチマークを超越している。
論文 参考訳(メタデータ) (2024-02-07T17:33:54Z) - Last One Standing: A Comparative Analysis of Security and Privacy of
Soft Prompt Tuning, LoRA, and In-Context Learning [25.454403998164203]
大きな言語モデル(LLM)は自然言語処理のための強力なツールであり、新しいアプリケーションやユーザエクスペリエンスを可能にする。
LLMは、プライバシとセキュリティ上の問題を引き起こすプライベートデータへの適応を必要とすることが多い。
LLMをプライベートデータに適用するためのいくつかの手法が提案されているが、それらの比較プライバシーとセキュリティ特性は体系的に研究されていない。
論文 参考訳(メタデータ) (2023-10-17T17:03:00Z) - Safety Correction from Baseline: Towards the Risk-aware Policy in
Robotics via Dual-agent Reinforcement Learning [64.11013095004786]
本稿では,ベースラインと安全エージェントからなる二重エージェント型安全強化学習戦略を提案する。
このような分離されたフレームワークは、RLベースの制御に対して高い柔軟性、データ効率、リスク認識を可能にする。
提案手法は,難易度の高いロボットの移動・操作作業において,最先端の安全RLアルゴリズムより優れる。
論文 参考訳(メタデータ) (2022-12-14T03:11:25Z) - Special Session: Towards an Agile Design Methodology for Efficient,
Reliable, and Secure ML Systems [12.53463551929214]
現代の機械学習システムは、ハードウェア障害に対する高い信頼性と、敵やIP盗難攻撃に対する安全性が期待されている。
プライバシーに関する懸念も一段落している。
この記事では、効率的で信頼性があり、セキュアなMLシステムのアジャイル開発における主な課題を要約する。
論文 参考訳(メタデータ) (2022-04-18T17:29:46Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Safe Active Dynamics Learning and Control: A Sequential
Exploration-Exploitation Framework [30.58186749790728]
本研究では,力学の不確実性の存在下での安全性を維持するための理論的に正当なアプローチを提案する。
我々のフレームワークは、常に全ての制約の高確率満足度を保証します。
この理論解析は、オンライン適応能力を改善する最終層メタラーニングモデルの2つの正則化を動機付けている。
論文 参考訳(メタデータ) (2020-08-26T17:39:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。