論文の概要: SoK: Modeling Explainability in Security Monitoring for Trust, Privacy,
and Interpretability
- arxiv url: http://arxiv.org/abs/2210.17376v1
- Date: Mon, 31 Oct 2022 15:01:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 19:39:40.988579
- Title: SoK: Modeling Explainability in Security Monitoring for Trust, Privacy,
and Interpretability
- Title(参考訳): SoK: 信頼、プライバシ、解釈可能性のためのセキュリティ監視における説明可能性のモデリング
- Authors: Dipkamal Bhusal, Nidhi Rastogi
- Abstract要約: 信頼、プライバシ、解釈可能性は、セキュリティ監視のためのディープラーニングモデルをデプロイする専門家にとって重要な懸念として浮上している。
我々は、解釈可能・プライバシー保護システム監視ツールを設計するためのパイプラインを提案する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Trust, privacy, and interpretability have emerged as significant concerns for
experts deploying deep learning models for security monitoring. Due to their
back-box nature, these models cannot provide an intuitive understanding of the
machine learning predictions, which are crucial in several decision-making
applications, like anomaly detection. Security operations centers have a number
of security monitoring tools that analyze logs and generate threat alerts which
security analysts inspect. The alerts lack sufficient explanation on why it was
raised or the context in which they occurred. Existing explanation methods for
security also suffer from low fidelity and low stability and ignore privacy
concerns. However, explanations are highly desirable; therefore, we systematize
this knowledge on explanation models so they can ensure trust and privacy in
security monitoring. Through our collaborative study of security operation
centers, security monitoring tools, and explanation techniques, we discuss the
strengths of existing methods and concerns vis-a-vis applications, such as
security log analysis. We present a pipeline to design interpretable and
privacy-preserving system monitoring tools. Additionally, we define and propose
quantitative metrics to evaluate methods in explainable security. Finally, we
discuss challenges and enlist exciting research directions for explorations.
- Abstract(参考訳): 信頼、プライバシ、解釈性は、セキュリティ監視のためにディープラーニングモデルをデプロイする専門家にとって重要な懸念となっている。
バックボックスの性質のため、これらのモデルは機械学習の予測を直感的に理解することはできない。
security operations centerには、ログを分析し、セキュリティアナリストが調査する脅威アラートを生成する、多数のセキュリティ監視ツールがある。
アラートは、それがなぜ起動されたのか、あるいは発生したコンテキストについて十分な説明が欠けている。
セキュリティに関する既存の説明方法は、信頼性が低く、安定性が低く、プライバシの懸念を無視する。
しかし、説明は非常に望ましいため、我々はこの知識を説明モデルに体系化し、セキュリティ監視における信頼とプライバシを確保することができる。
セキュリティ運用センター,セキュリティ監視ツール,説明手法の協力研究を通じて,既存の手法の長所と,セキュリティログ分析などのvis-a-visアプリケーションの長所について論じる。
解釈可能・プライバシー保護システム監視ツールの設計パイプラインを提案する。
さらに,説明可能なセキュリティ手法を評価するための定量的指標を定式化し,提案する。
最後に,課題を議論し,探索のためのエキサイティングな研究指針を提示する。
関連論文リスト
- On the Fairness, Diversity and Reliability of Text-to-Image Generative Models [49.60774626839712]
マルチモーダル生成モデルは 彼らの公正さ、信頼性、そして誤用の可能性について 批判的な議論を呼んだ
組込み空間における摂動に対する応答を通じてモデルの信頼性を評価するための評価フレームワークを提案する。
本手法は, 信頼できない, バイアス注入されたモデルを検出し, バイアス前駆体の検索を行うための基礎となる。
論文 参考訳(メタデータ) (2024-11-21T09:46:55Z) - Towards Precise Observations of Neural Model Robustness in Classification [2.127049691404299]
ディープラーニングアプリケーションでは、ロバストネスは入力データのわずかな変化を処理するニューラルネットワークの能力を測定する。
私たちのアプローチは、安全クリティカルなアプリケーションにおけるモデルロバストネスのより深い理解に寄与します。
論文 参考訳(メタデータ) (2024-04-25T09:37:44Z) - Beyond Fidelity: Explaining Vulnerability Localization of Learning-based
Detectors [10.316819421902363]
近年,ディープラーニング(DL)モデルに基づく脆弱性検出装置の有効性が証明されている。
これらの検出器の意思決定プロセスを取り巻く不透明さは、セキュリティアナリストの理解を困難にしている。
グラフおよびシーケンス表現に基づく脆弱性検出のための10種類の説明手法の性能評価を行った。
論文 参考訳(メタデータ) (2024-01-05T07:37:35Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Empirical Estimates on Hand Manipulation are Recoverable: A Step Towards
Individualized and Explainable Robotic Support in Everyday Activities [80.37857025201036]
ロボットシステムの鍵となる課題は、他のエージェントの振る舞いを理解することである。
正しい推論の処理は、(衝突)因子が実験的に制御されない場合、特に困難である。
人に関する観察研究を行うために必要なツールをロボットに装備することを提案する。
論文 参考訳(メタデータ) (2022-01-27T22:15:56Z) - On the Trustworthiness of Tree Ensemble Explainability Methods [0.9558392439655014]
特徴重要度法(ゲインやSHAPなど)は、このニーズに対処する最も一般的な説明可能性法の一つである。
信頼できる、意味のある説明可能性のテクニックは、正確で安定した説明を提供する必要があります。
シミュレーションと4つの実世界のデータセットを用いた包括的実験により,グローバルな特徴重要度手法の精度と安定性を評価する。
論文 参考訳(メタデータ) (2021-09-30T20:56:37Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Reliable Post hoc Explanations: Modeling Uncertainty in Explainability [44.9824285459365]
ブラックボックスの説明は、高レベルの設定でモデルの信頼性を確立するために、ますます採用されている。
先行研究では、最先端の技術が生み出す説明は一貫性がなく不安定であり、その正確性や信頼性についての洞察はほとんど得られないことが示されている。
局所的な説明と関連する不確実性を生成するための新しいベイズ的枠組みを開発する。
論文 参考訳(メタデータ) (2020-08-11T22:52:21Z) - A Safety Framework for Critical Systems Utilising Deep Neural Networks [13.763070043077633]
本稿では,ディープニューラルネットワークを利用したクリティカルシステムのための新しい安全引数フレームワークを提案する。
このアプローチは、例えば、ある要求をパスする将来の信頼性、あるいは必要な信頼性レベルへの信頼など、様々な形の予測を可能にする。
運用データを用いたベイズ解析と,近年のディープラーニングの検証と検証技術によって支援されている。
論文 参考訳(メタデータ) (2020-03-07T23:35:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。