論文の概要: From Lemons to Peaches: Improving Security ROI through Security Chaos
Engineering
- arxiv url: http://arxiv.org/abs/2307.03796v1
- Date: Fri, 7 Jul 2023 18:47:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-23 18:05:03.385804
- Title: From Lemons to Peaches: Improving Security ROI through Security Chaos
Engineering
- Title(参考訳): LemonsからPeachesへ - セキュリティカオスエンジニアリングによるセキュリティROIの改善
- Authors: Kelly Shortridge
- Abstract要約: 従来の情報セキュリティは低いROIを示します。
セキュリティカオスエンジニアリングの新たなパラダイムは、攻撃の影響を最小限にすることで、より報酬的で信頼性の高いROIを提供します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional information security presents a poor ROI: payoffs only manifest
when attacks are successfully prevented. In a reality where attacks are
inevitable, subpar returns are therefore inevitable. The emerging paradigm of
Security Chaos Engineering offers a more remunerative and reliable ROI by
minimizing attack impacts and generating valuable evidence to inform continuous
improvement of system design and operation.
- Abstract(参考訳): 従来の情報セキュリティは、roiが貧弱であることを示している。
攻撃が避けられない現実では、サブパーリターンは避けられない。
セキュリティカオスエンジニアリングの新たなパラダイムは、攻撃の影響を最小限に抑え、システム設計と運用の継続的な改善を知らせる価値のある証拠を生み出すことによって、より報酬と信頼性の高いroiを提供する。
関連論文リスト
- ROSE Doesn't Do That: Boosting the Safety of Instruction-Tuned Large
Language Models with Reverse Prompt Contrastive Decoding [95.49128988683191]
本稿では,既存の命令調整LDMの安全性を高めるための簡易な手法であるROSE(Reverse prompt contrastive decoding)を提案する。
6つの安全性と2つの汎用タスクの実験から、ROSEは5種類の命令調整LDMに対して、一貫した、重要な安全性向上(+13.8%の安全性スコア)をもたらすだけでなく、LLMの汎用能力にも恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2024-02-19T06:58:42Z) - Assessing the Brittleness of Safety Alignment via Pruning and Low-Rank
Modifications [71.73807057757793]
大きな言語モデル(LLM)は、その安全性メカニズムに固有の脆さを示す。
本研究では, プルーニングと低ランク改造を利用した安全アライメントの脆性について検討した。
安全クリティカル領域への変更が制限された場合でも,LSMは低コストの微調整攻撃に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2024-02-07T18:34:38Z) - On Prompt-Driven Safeguarding for Large Language Models [178.612893285033]
モデル表現空間において、有害で有害なクエリは、大きく区別できるが、これは安全プロンプトによって顕著に強化されない。
そこで本研究では,DRO(Directed Representation Optimization)と呼ばれる自動安全プロンプト最適化手法を提案する。
論文 参考訳(メタデータ) (2024-01-31T17:28:24Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Jailbroken: How Does LLM Safety Training Fail? [92.8748773632051]
ChatGPTの初期リリースに対する"jailbreak"攻撃は、望ましくない振る舞いを引き起こす。
このような攻撃がなぜ成功し、どのように発生できるかを考察する。
障害モードを利用した新たな攻撃は、安全でない要求の収集において、すべてのプロンプトで成功します。
論文 参考訳(メタデータ) (2023-07-05T17:58:10Z) - Deception for Cyber Defence: Challenges and Opportunities [16.685159244363604]
機械学習の最近の進歩は、スケーラブルで自動化された現実的な騙しの発生の機会を生み出している。
このビジョンペーパーでは、騙し効果のためにITスタックの多くの共通要素を模倣するモデルを開発する上での機会と課題について説明する。
論文 参考訳(メタデータ) (2022-08-15T11:42:36Z) - The Effects of Reward Misspecification: Mapping and Mitigating
Misaligned Models [85.68751244243823]
RLエージェントが不特定報酬関数のギャップを悪用するリワードハッキングは広く観測されているが、体系的にはまだ研究されていない。
本稿では,モデル能力,行動空間分解能,観測空間雑音,訓練時間といったエージェント能力の関数としての報酬ハッキングについて検討する。
エージェントの動作が定性的にシフトする能力閾値は、真の報酬の急激な減少につながる。
論文 参考訳(メタデータ) (2022-01-10T18:58:52Z) - Towards Practical Deployment-Stage Backdoor Attack on Deep Neural
Networks [5.231607386266116]
ディープラーニングモデルに対するデプロイステージバックドア攻撃の現実的な脅威について検討する。
バックドアインジェクションのための最初のグレーボックスと物理的に実現可能な重み攻撃アルゴリズムを提案する。
本研究は,攻撃アルゴリズムの有効性と実用性を示すものである。
論文 参考訳(メタデータ) (2021-11-25T08:25:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。