論文の概要: Using Constraint Programming and Graph Representation Learning for
Generating Interpretable Cloud Security Policies
- arxiv url: http://arxiv.org/abs/2205.01240v1
- Date: Mon, 2 May 2022 22:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 00:47:39.292957
- Title: Using Constraint Programming and Graph Representation Learning for
Generating Interpretable Cloud Security Policies
- Title(参考訳): 解釈可能なクラウドセキュリティポリシ生成のための制約プログラミングとグラフ表現学習の利用
- Authors: Mikhail Kazdagli, Mohit Tiwari, Akshat Kumar
- Abstract要約: クラウドセキュリティは、IT管理者が適切に設定し定期的に更新する必要があるIDアクセス管理(IAM)ポリシーに依存している。
我々は制約プログラミング(CP)を用いて最適なIAMポリシーを生成する新しいフレームワークを開発する。
最適化されたIAMポリシは,8つの商用組織と合成インスタンスの実際のデータを用いたセキュリティ攻撃の影響を著しく低減することを示す。
- 参考スコア(独自算出の注目度): 12.43505973436359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern software systems rely on mining insights from business sensitive data
stored in public clouds. A data breach usually incurs significant (monetary)
loss for a commercial organization. Conceptually, cloud security heavily relies
on Identity Access Management (IAM) policies that IT admins need to properly
configure and periodically update. Security negligence and human errors often
lead to misconfiguring IAM policies which may open a backdoor for attackers. To
address these challenges, first, we develop a novel framework that encodes
generating optimal IAM policies using constraint programming (CP). We identify
reducing dark permissions of cloud users as an optimality criterion, which
intuitively implies minimizing unnecessary datastore access permissions.
Second, to make IAM policies interpretable, we use graph representation
learning applied to historical access patterns of users to augment our CP model
with similarity constraints: similar users should be grouped together and share
common IAM policies. Third, we describe multiple attack models and show that
our optimized IAM policies significantly reduce the impact of security attacks
using real data from 8 commercial organizations, and synthetic instances.
- Abstract(参考訳): 現代のソフトウェアシステムは、パブリッククラウドに格納されたビジネス機密データからインサイトをマイニングする。
データ漏洩は通常、商業組織に重大な(金銭的な)損失をもたらす。
概念的には、クラウドセキュリティはIT管理者が適切に設定し定期的に更新する必要があるIDアクセス管理(IAM)ポリシーに大きく依存している。
セキュリティの無視とヒューマンエラーは、攻撃者のバックドアを開く可能性のあるIAMポリシーの誤った設定につながることが多い。
これらの課題に対処するため、まず制約プログラミング(CP)を用いて最適なIAMポリシーを生成することを符号化する新しいフレームワークを開発する。
クラウドユーザのダークパーミッションの削減は,不必要なデータストアアクセス権限の最小化を直感的に意味する最適基準である。
第二に、IAMポリシーを解釈可能にするために、ユーザの過去のアクセスパターンに適用したグラフ表現学習を使用して、類似性制約でCPモデルを拡張します。
第三に、複数の攻撃モデルを説明し、最適化されたIAMポリシーは、8つの商業組織と合成インスタンスの実際のデータを用いたセキュリティ攻撃の影響を著しく低減することを示す。
関連論文リスト
- Leveraging AI Planning For Detecting Cloud Security Vulnerabilities [17.424669782627497]
クラウドコンピューティングサービスは、データストレージ、処理、コラボレーションのためのスケーラブルで費用対効果の高いソリューションを提供する。
アクセス制御のミスコンフィグレーションが、クラウドアタックの主要な要因であることが多い。
本研究では,セキュリティ脆弱性を検出するPDDLモデルを開発し,ランサムウェアなどの広範囲な攻撃につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-16T03:28:02Z) - From Principle to Practice: Vertical Data Minimization for Machine
Learning [15.880586296169687]
政策立案者はデータ最小化(DM)原則の遵守をますます要求している。
規制圧力にもかかわらず、DMに従う機械学習モデルをデプロイする問題は、今のところほとんど注目されていない。
データ一般化に基づく新しい垂直DM(vDM)ワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-17T13:01:09Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Exploring Security Practices in Infrastructure as Code: An Empirical
Study [54.669404064111795]
クラウドコンピューティングは、Infrastructure as Code (IaC)ツールが広く使われていることで人気を博している。
スクリプティングプロセスは、実践者が自動的に設定ミスや脆弱性、プライバシリスクを導入するのを防ぐものではない。
セキュリティの確保は、実践者が明確な方針、ガイドライン、ベストプラクティスを理解し、採用することに依存する。
論文 参考訳(メタデータ) (2023-08-07T23:43:32Z) - Offline Reinforcement Learning with Closed-Form Policy Improvement
Operators [88.54210578912554]
行動制約付きポリシー最適化は、オフライン強化学習に対処するための成功パラダイムであることが示されている。
本稿では,閉形式政策改善演算子を提案する。
我々は、標準的なD4RLベンチマークにおいて、最先端アルゴリズムに対するそれらの効果を実証的に実証した。
論文 参考訳(メタデータ) (2022-11-29T06:29:26Z) - On the Evaluation of User Privacy in Deep Neural Networks using Timing
Side Channel [14.350301915592027]
我々は,Deep Learning (DL) の実装において,新たなデータ依存型タイミング側チャネルリーク(クラスリーク)を特定し,報告する。
ユーザ特権とハードラベルのブラックボックスアクセスを持つ敵が、クラスリークを悪用できる、実用的な推論時攻撃を実証する。
我々は,クラスリークを緩和する定時分岐操作を行うことにより,実装が容易な対策を開発する。
論文 参考訳(メタデータ) (2022-08-01T19:38:16Z) - Hyper-Universal Policy Approximation: Learning to Generate Actions from
a Single Image using Hypernets [1.3535770763481902]
ユニバーサル・ポリシー・ファンクション(UPF、Universal Policy Functions)は、新しい、目に見えない環境に一般化するステート・ツー・アクション・マッピングである。
単一画像からタスクと環境条件の小さなポリシーネットワークを生成するハイパーネットワークベースのモデルであるHyper-Universal Policy Approximator (HUPA)を提案する。
以上の結果から,HUPAsは,サイズに制約のある生成ポリシに対して,埋め込みベースの代替手段を著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-07-07T21:42:54Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - Building a Foundation for Data-Driven, Interpretable, and Robust Policy
Design using the AI Economist [67.08543240320756]
AIエコノミストフレームワークは,2段階強化学習とデータ駆動型シミュレーションを用いて,効果的な,柔軟な,解釈可能なポリシー設計を可能にする。
RLを用いて訓練されたログリニア政策は、過去の結果と比較して、公衆衛生と経済の両面から社会福祉を著しく改善することがわかった。
論文 参考訳(メタデータ) (2021-08-06T01:30:41Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy
Gradients [93.65993173260318]
報酬を最大化するポリシーを訓練し、そのアクションを通じて特定の機密状態変数の開示を最小化するタスクを考える。
この設定は、シーケンシャルな意思決定のためのプライバシーにおける現実世界の問題をどのようにカバーするかを例に示します。
実験の結果,本手法は敏感な状態を隠蔽する方針が得られた。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。