論文の概要: ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies
- arxiv url: http://arxiv.org/abs/2204.02294v1
- Date: Tue, 5 Apr 2022 15:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 14:00:32.082354
- Title: ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies
- Title(参考訳): zetar: 戦略的および適応的コンプライアンスポリシーのモデリングと計算設計
- Authors: Linan Huang and Quanyan Zhu
- Abstract要約: 我々は、インサイダーのインセンティブをモデル化するための定量的アプローチを提供するため、ゼロトラスト監査・レコメンデーションフレームワークZETARを開発した。
予備凸と二重凸のプログラムを定式化し、最適な分岐推薦ポリシーを計算します。
本結果から, 最適勧告政策は, リスク回避インサイダーに対するコンプライアンスの大幅な改善につながることが示唆された。
- 参考スコア(独自算出の注目度): 25.148580043540175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security compliance management plays an important role in mitigating insider
threats. Incentive design is a proactive and non-invasive approach to achieving
compliance by aligning an employee's incentive with the defender's security
objective. Controlling insiders' incentives to elicit proper actions is
challenging because they are neither precisely known nor directly controllable.
To this end, we develop ZETAR, a zero-trust audit and recommendation framework,
to provide a quantitative approach to model incentives of the insiders and
design customized and strategic recommendation policies to improve their
compliance. We formulate primal and dual convex programs to compute the optimal
bespoke recommendation policies. We create a theoretical underpinning for
understanding trust and compliance, and it leads to security insights,
including fundamental limits of Completely Trustworthy (CT) recommendation, the
principle of compliance equivalency, and strategic information disclosure. This
work proposes finite-step algorithms to efficiently learn the CT policy set
when employees' incentives are unknown. Finally, we present a case study to
corroborate the design and illustrate a formal way to achieve compliance for
insiders with different risk attitudes. Our results show that the optimal
recommendation policy leads to a significant improvement in compliance for
risk-averse insiders. Moreover, CT recommendation policies promote insiders'
satisfaction.
- Abstract(参考訳): セキュリティコンプライアンス管理は、インサイダーの脅威を軽減する上で重要な役割を果たす。
インセンティブデザインは、従業員のインセンティブをディフェンダーのセキュリティ目標に合わせることによって、コンプライアンスを達成するための積極的な非侵襲的なアプローチである。
適切な行動を誘発するインサイダーのインセンティブを制御することは、正確には知られていないし、直接的に制御できないため、難しい。
そこで我々は,ゼロトラスト監査・レコメンデーションフレームワークであるzetarを開発し,インサイダーのインセンティブをモデル化するための定量的アプローチと,コンプライアンスを改善するためにカスタマイズされた戦略的レコメンデーションポリシを提供する。
予備と双対の凸プログラムを定式化し,最適な推奨方針を計算する。
信頼とコンプライアンスを理解するための理論的基盤を作り、完全な信頼に値する(ct)勧告の基本的な限界、コンプライアンスの等価性の原則、戦略的情報開示など、セキュリティの洞察を導きます。
本研究は、従業員のインセンティブが不明な場合に、CTポリシーを効率的に学習するための有限ステップアルゴリズムを提案する。
最後に,設計をコラボレートしたケーススタディと,リスク態度の異なるインサイダーのコンプライアンスを実現するための形式的な方法を紹介する。
その結果、最適な推奨方針はリスク回避インサイダーのコンプライアンスを著しく向上させることが示唆された。
さらに、CTレコメンデーションポリシーはインサイダーの満足度を促進する。
関連論文リスト
- Responsible AI in Open Ecosystems: Reconciling Innovation with Risk Assessment and Disclosure [4.578401882034969]
私たちは、モデルパフォーマンス評価がモデル制限やバイアス、その他のリスクの予測を通知したり、妨げたりする方法について焦点を当てています。
我々の発見は、倫理的取り込みを動機づけつつ、オープンソースのイノベーションを維持するための介入やポリシーを設計するAI提供者や法学者に通知することができる。
論文 参考訳(メタデータ) (2024-09-27T19:09:40Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z) - On the Complexity of Adversarial Decision Making [101.14158787665252]
決定推定係数は, 相手の意思決定に対する後悔度を低く抑えるのに必要であり, 十分であることを示す。
我々は、決定推定係数を他のよく知られた複雑性尺度の変種に結びつける新しい構造結果を提供する。
論文 参考訳(メタデータ) (2022-06-27T06:20:37Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Training Value-Aligned Reinforcement Learning Agents Using a Normative
Prior [10.421378728492437]
タスクパフォーマンスの指標のみをフィードバックとして使用することで、タスクを最適に実行するように訓練されたエージェントが、許容される行動や危害を引き起こす社会的規範に違反する可能性がある。
そこで我々は,標準的なタスクパフォーマンス報酬と規範的な行動報酬という2つの報酬信号を持つエージェントを訓練する,価値整合強化学習のアプローチを紹介する。
政策形成手法のバリエーションがこれら2つの報酬源をバランスさせ、効果的かつより規範的であると見なされる政策を生み出す方法を示す。
論文 参考訳(メタデータ) (2021-04-19T17:33:07Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。