論文の概要: Bayes Security: A Not So Average Metric
- arxiv url: http://arxiv.org/abs/2011.03396v3
- Date: Tue, 20 Feb 2024 15:54:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-26 00:17:07.132438
- Title: Bayes Security: A Not So Average Metric
- Title(参考訳): ベイズ・セキュリティ:平均値ではない
- Authors: Konstantinos Chatzikokolakis, Giovanni Cherubin, Catuscia Palamidessi, Carmela Troncoso,
- Abstract要約: セキュリティシステムのデザイナは、ディファレンシャルプライバシ(DP)から派生したような最悪のセキュリティ指標を好む。
本稿では,暗号の優位性に触発されたセキュリティ指標ベイズセキュリティについて検討する。
- 参考スコア(独自算出の注目度): 20.60340368521067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security system designers favor worst-case security metrics, such as those derived from differential privacy (DP), due to the strong guarantees they provide. On the downside, these guarantees result in a high penalty on the system's performance. In this paper, we study Bayes security, a security metric inspired by the cryptographic advantage. Similarly to DP, Bayes security i) is independent of an adversary's prior knowledge, ii) it captures the worst-case scenario for the two most vulnerable secrets (e.g., data records); and iii) it is easy to compose, facilitating security analyses. Additionally, Bayes security iv) can be consistently estimated in a black-box manner, contrary to DP, which is useful when a formal analysis is not feasible; and v) provides a better utility-security trade-off in high-security regimes because it quantifies the risk for a specific threat model as opposed to threat-agnostic metrics such as DP. We formulate a theory around Bayes security, and we provide a thorough comparison with respect to well-known metrics, identifying the scenarios where Bayes Security is advantageous for designers.
- Abstract(参考訳): セキュリティシステムのデザイナは、ディファレンシャルプライバシ(DP)から派生したような最悪のセキュリティ指標を好む。
欠点として、これらの保証はシステムのパフォーマンスに高いペナルティをもたらす。
本稿では,暗号の優位性に触発されたセキュリティ指標ベイズセキュリティについて検討する。
DPと同様、ベイズ・セキュリティ
一 相手方の事前の知識から独立していること。
ii)最も脆弱な2つの秘密(例えば、データ記録)の最悪のシナリオをキャプチャし、
三 構成が容易で、安全分析を容易にすること。
ベイズセキュリティ
iv) 形式解析が不可能な場合に有用であるDPとは対照的に,一貫してブラックボックスで推定することができる。
v) DPのような脅威に依存しない指標とは対照的に、特定の脅威モデルのリスクを定量化するため、高セキュリティ体制において、より良いユーティリティセキュリティトレードオフを提供する。
ベイズセキュリティに関する理論を定式化し、ベイズセキュリティがデザイナにとって有利なシナリオを特定することで、よく知られたメトリクスについて徹底的に比較する。
関連論文リスト
- Bayesian Methods for Trust in Collaborative Multi-Agent Autonomy [11.246557832016238]
安全クリティカルで競争の激しい環境では、敵は多数のエージェントに侵入し、妥協することがある。
我々は、この妥協されたエージェント脅威モデルの下で、アートマルチターゲット追跡アルゴリズムの状態を解析する。
階層的ベイズ更新を用いた信頼度推定フレームワークを設計する。
論文 参考訳(メタデータ) (2024-03-25T17:17:35Z) - Mitigating Fine-tuning Jailbreak Attack with Backdoor Enhanced Alignment [58.07171349593672]
ファインチューニングベースのジェイルブレイク攻撃(FJAttack)に対する防御のためのバックドア強化安全アライメントを提案する。
安全事例に先行する「バックドアトリガー」として,シークレットプロンプトを統合することで,プレフィックス付き安全事例を構築した。
我々の実験は、バックドア強化安全アライメント(Backdoor Enhanced Safety Alignment)により、最大11個のプレフィックス付き安全サンプルを追加することで、悪意ある微調整 LLM が元のアライメントモデルと同様の安全性性能を達成することを実証した。
論文 参考訳(メタデータ) (2024-02-22T21:05:18Z) - The Art of Defending: A Systematic Evaluation and Analysis of LLM
Defense Strategies on Safety and Over-Defensiveness [56.174255970895466]
大規模言語モデル(LLM)は、自然言語処理アプリケーションにおいて、ますます重要な役割を担っている。
本稿では,SODE(Safety and Over-Defensiveness Evaluation)ベンチマークを提案する。
論文 参考訳(メタデータ) (2023-12-30T17:37:06Z) - PROFL: A Privacy-Preserving Federated Learning Method with Stringent
Defense Against Poisoning Attacks [2.6487166137163007]
Federated Learning(FL)は、プライバシー漏洩と中毒攻撃という2つの大きな問題に直面している。
本稿では,プライバシー保護のための新しいFLフレームワーク PROFL を提案する。
PROFLは2タラプドア追加の同型暗号化アルゴリズムとブラインド技術に基づいている。
論文 参考訳(メタデータ) (2023-12-02T06:34:37Z) - ASSERT: Automated Safety Scenario Red Teaming for Evaluating the
Robustness of Large Language Models [65.79770974145983]
ASSERT、Automated Safety Scenario Red Teamingは、セマンティックなアグリゲーション、ターゲットブートストラップ、敵の知識注入という3つの方法で構成されている。
このプロンプトを4つの安全領域に分割し、ドメインがモデルの性能にどのように影響するかを詳細に分析する。
統計的に有意な性能差は, 意味的関連シナリオにおける絶対分類精度が最大11%, ゼロショット逆数設定では最大19%の絶対誤差率であることがわかった。
論文 参考訳(メタデータ) (2023-10-14T17:10:28Z) - Certifying LLM Safety against Adversarial Prompting [75.19953634352258]
大規模言語モデル(LLM)は、入力プロンプトに悪意のあるトークンを追加する敵攻撃に対して脆弱である。
我々は,認証された安全保証とともに,敵のプロンプトを防御する最初の枠組みである消去・チェックを導入する。
論文 参考訳(メタデータ) (2023-09-06T04:37:20Z) - Safety Margins for Reinforcement Learning [74.13100479426424]
安全マージンを生成するためにプロキシ臨界度メトリクスをどのように活用するかを示す。
Atari 環境での APE-X と A3C からの学習方針に対するアプローチを評価する。
論文 参考訳(メタデータ) (2023-07-25T16:49:54Z) - Do Software Security Practices Yield Fewer Vulnerabilities? [6.6840472845873276]
本研究の目的は、専門家や研究者がどのセキュリティプラクティスを採用するべきかを判断するのを支援することである。
4つのセキュリティプラクティスが、脆弱性数に影響を与える最も重要なプラクティスでした。
パッケージの総セキュリティスコアが増加するにつれて、報告された脆弱性の数は減少した。
論文 参考訳(メタデータ) (2022-10-20T20:04:02Z) - Meta-Learning Priors for Safe Bayesian Optimization [72.8349503901712]
メタ学習アルゴリズムであるF-PACOHを構築し,データ不足の設定において確実な定量化を実現する。
コアコントリビューションとして、安全に適合した事前をデータ駆動で選択するための新しいフレームワークを開発する。
ベンチマーク関数と高精度動作系において,我々のメタ学習先行が安全なBOアプローチの収束を加速することを示す。
論文 参考訳(メタデータ) (2022-10-03T08:38:38Z) - Assessing Safety-Critical Systems from Operational Testing: A Study on
Autonomous Vehicles [3.629865579485447]
安全クリティカルシステム(SCS)の信頼性と安全性の実証は依然として難しい問題である。
我々は、信頼性を示す問題を再考するために、現在の例として自律走行車(AV)を使用します。
論文 参考訳(メタデータ) (2020-08-19T19:50:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。