論文の概要: Using Constraint Programming and Graph Representation Learning for
Generating Interpretable Cloud Security Policies
- arxiv url: http://arxiv.org/abs/2205.01240v1
- Date: Mon, 2 May 2022 22:15:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-05 00:47:39.292957
- Title: Using Constraint Programming and Graph Representation Learning for
Generating Interpretable Cloud Security Policies
- Title(参考訳): 解釈可能なクラウドセキュリティポリシ生成のための制約プログラミングとグラフ表現学習の利用
- Authors: Mikhail Kazdagli, Mohit Tiwari, Akshat Kumar
- Abstract要約: クラウドセキュリティは、IT管理者が適切に設定し定期的に更新する必要があるIDアクセス管理(IAM)ポリシーに依存している。
我々は制約プログラミング(CP)を用いて最適なIAMポリシーを生成する新しいフレームワークを開発する。
最適化されたIAMポリシは,8つの商用組織と合成インスタンスの実際のデータを用いたセキュリティ攻撃の影響を著しく低減することを示す。
- 参考スコア(独自算出の注目度): 12.43505973436359
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern software systems rely on mining insights from business sensitive data
stored in public clouds. A data breach usually incurs significant (monetary)
loss for a commercial organization. Conceptually, cloud security heavily relies
on Identity Access Management (IAM) policies that IT admins need to properly
configure and periodically update. Security negligence and human errors often
lead to misconfiguring IAM policies which may open a backdoor for attackers. To
address these challenges, first, we develop a novel framework that encodes
generating optimal IAM policies using constraint programming (CP). We identify
reducing dark permissions of cloud users as an optimality criterion, which
intuitively implies minimizing unnecessary datastore access permissions.
Second, to make IAM policies interpretable, we use graph representation
learning applied to historical access patterns of users to augment our CP model
with similarity constraints: similar users should be grouped together and share
common IAM policies. Third, we describe multiple attack models and show that
our optimized IAM policies significantly reduce the impact of security attacks
using real data from 8 commercial organizations, and synthetic instances.
- Abstract(参考訳): 現代のソフトウェアシステムは、パブリッククラウドに格納されたビジネス機密データからインサイトをマイニングする。
データ漏洩は通常、商業組織に重大な(金銭的な)損失をもたらす。
概念的には、クラウドセキュリティはIT管理者が適切に設定し定期的に更新する必要があるIDアクセス管理(IAM)ポリシーに大きく依存している。
セキュリティの無視とヒューマンエラーは、攻撃者のバックドアを開く可能性のあるIAMポリシーの誤った設定につながることが多い。
これらの課題に対処するため、まず制約プログラミング(CP)を用いて最適なIAMポリシーを生成することを符号化する新しいフレームワークを開発する。
クラウドユーザのダークパーミッションの削減は,不必要なデータストアアクセス権限の最小化を直感的に意味する最適基準である。
第二に、IAMポリシーを解釈可能にするために、ユーザの過去のアクセスパターンに適用したグラフ表現学習を使用して、類似性制約でCPモデルを拡張します。
第三に、複数の攻撃モデルを説明し、最適化されたIAMポリシーは、8つの商業組織と合成インスタンスの実際のデータを用いたセキュリティ攻撃の影響を著しく低減することを示す。
関連論文リスト
- PolicyLR: A Logic Representation For Privacy Policies [34.73520882451813]
我々は、プライバシポリシーの包括的な機械可読表現を提供する新しいパラダイムであるPolicyLRを提案する。
PolicyLRは、プライバシーポリシーを原子式の評価を用いて機械可読形式に変換する。
ポリシコンプライアンス,一貫性検出,プライバシ比較ショッピングという3つのプライバシタスクにおいて,ポリシLRを実証する。
論文 参考訳(メタデータ) (2024-08-27T07:27:16Z) - Robust Utility-Preserving Text Anonymization Based on Large Language Models [80.5266278002083]
テキストの匿名化は、プライバシーを維持しながら機密データを共有するために重要である。
既存の技術は、大規模言語モデルの再識別攻撃能力の新たな課題に直面している。
本稿では,3つのLCMベースコンポーネント – プライバシ評価器,ユーティリティ評価器,最適化コンポーネント – で構成されるフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T14:28:56Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - "Glue pizza and eat rocks" -- Exploiting Vulnerabilities in Retrieval-Augmented Generative Models [74.05368440735468]
Retrieval-Augmented Generative (RAG)モデルにより大規模言語モデル(LLM)が強化される
本稿では,これらの知識基盤の開放性を敵が活用できるセキュリティ上の脅威を示す。
論文 参考訳(メタデータ) (2024-06-26T05:36:23Z) - Ungeneralizable Examples [70.76487163068109]
学習不能なデータを作成するための現在のアプローチには、小さくて特殊なノイズが組み込まれている。
学習不能データの概念を条件付きデータ学習に拡張し、textbfUntextbf Generalizable textbfExamples (UGEs)を導入する。
UGEは認証されたユーザに対して学習性を示しながら、潜在的なハッカーに対する非学習性を維持している。
論文 参考訳(メタデータ) (2024-04-22T09:29:14Z) - Leveraging AI Planning For Detecting Cloud Security Vulnerabilities [15.503757553097387]
クラウドコンピューティングサービスは、データストレージ、処理、コラボレーションのためのスケーラブルで費用対効果の高いソリューションを提供する。
アクセス制御のミスコンフィグレーションが、クラウドアタックの主要な要因であることが多い。
本研究では,セキュリティ脆弱性を検出するPDDLモデルを開発し,ランサムウェアなどの広範囲な攻撃につながる可能性がある。
論文 参考訳(メタデータ) (2024-02-16T03:28:02Z) - From Principle to Practice: Vertical Data Minimization for Machine
Learning [15.880586296169687]
政策立案者はデータ最小化(DM)原則の遵守をますます要求している。
規制圧力にもかかわらず、DMに従う機械学習モデルをデプロイする問題は、今のところほとんど注目されていない。
データ一般化に基づく新しい垂直DM(vDM)ワークフローを提案する。
論文 参考訳(メタデータ) (2023-11-17T13:01:09Z) - Exploring Security Practices in Infrastructure as Code: An Empirical
Study [54.669404064111795]
クラウドコンピューティングは、Infrastructure as Code (IaC)ツールが広く使われていることで人気を博している。
スクリプティングプロセスは、実践者が自動的に設定ミスや脆弱性、プライバシリスクを導入するのを防ぐものではない。
セキュリティの確保は、実践者が明確な方針、ガイドライン、ベストプラクティスを理解し、採用することに依存する。
論文 参考訳(メタデータ) (2023-08-07T23:43:32Z) - On the Evaluation of User Privacy in Deep Neural Networks using Timing
Side Channel [14.350301915592027]
我々は,Deep Learning (DL) の実装において,新たなデータ依存型タイミング側チャネルリーク(クラスリーク)を特定し,報告する。
ユーザ特権とハードラベルのブラックボックスアクセスを持つ敵が、クラスリークを悪用できる、実用的な推論時攻撃を実証する。
我々は,クラスリークを緩和する定時分岐操作を行うことにより,実装が容易な対策を開発する。
論文 参考訳(メタデータ) (2022-08-01T19:38:16Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - An Automatic Attribute Based Access Control Policy Extraction from
Access Logs [5.142415132534397]
属性ベースのアクセス制御(ABAC)モデルは、複雑なシステムや動的システムの認証要求に対処するための、より柔軟なアプローチを提供する。
本稿では,システムへのアクセスログからABACポリシールールを自動的に学習し,ポリシー開発プロセスを簡素化する手法を提案する。
論文 参考訳(メタデータ) (2020-03-16T15:08:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。