論文の概要: ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies
- arxiv url: http://arxiv.org/abs/2204.02294v2
- Date: Sat, 14 Oct 2023 01:37:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 07:10:09.943846
- Title: ZETAR: Modeling and Computational Design of Strategic and Adaptive
Compliance Policies
- Title(参考訳): zetar: 戦略的および適応的コンプライアンスポリシーのモデリングと計算設計
- Authors: Linan Huang and Quanyan Zhu
- Abstract要約: 我々は、インサイダーのインセンティブをモデル化するための定量的アプローチを提供するため、ゼロトラスト監査・レコメンデーションフレームワークZETARを開発した。
政策分離性原理と集合凸性を同定し、有限ステップアルゴリズムが完全信頼に値する(CT)ポリシーセットを効率的に学習できるようにする。
以上の結果から,ZETARはリスクやコンプライアンスの態度の異なるインサイダーに適応でき,コンプライアンスを大幅に改善できることがわかった。
- 参考スコア(独自算出の注目度): 19.9521399287127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Compliance management plays an important role in mitigating insider threats.
Incentive design is a proactive and non-invasive approach to achieving
compliance by aligning an insider's incentive with the defender's security
objective, which motivates (rather than commands) an insider to act in the
organization's interests. Controlling insiders' incentives for population-level
compliance is challenging because they are neither precisely known nor directly
controllable. To this end, we develop ZETAR, a zero-trust audit and
recommendation framework, to provide a quantitative approach to model insiders'
incentives and design customized recommendation policies to improve their
compliance. We formulate primal and dual convex programs to compute the optimal
bespoke recommendation policies. We create the theoretical underpinning for
understanding trust, compliance, and satisfaction, which leads to scoring
mechanisms of how compliant and persuadable an insider is. After classifying
insiders as malicious, self-interested, or amenable based on their incentive
misalignment levels with the defender, we establish bespoke information
disclosure principles for these insiders of different incentive categories. We
identify the policy separability principle and the set convexity, which enable
finite-step algorithms to efficiently learn the Completely Trustworthy (CT)
policy set when insiders' incentives are unknown. Finally, we present a case
study to corroborate the design. Our results show that ZETAR can well adapt to
insiders with different risk and compliance attitudes and significantly improve
compliance. Moreover, trustworthy recommendations can provably promote cyber
hygiene and insiders' satisfaction.
- Abstract(参考訳): コンプライアンス管理はインサイダーの脅威を軽減する上で重要な役割を果たしている。
インセンティブデザイン(Incentive Design)は、インサイダーのインセンティブとディフェンダーのセキュリティ目標を整合させることによってコンプライアンスを達成するための、積極的に非侵襲的なアプローチである。
人口レベルのコンプライアンスに対するインサイダーのインセンティブのコントロールは、正確には知られておらず直接制御できないため、難しい。
この目的のために、ゼロトラスト監査・レコメンデーションフレームワークであるZETARを開発し、インサイダーのインセンティブをモデル化するための定量的アプローチを提供し、コンプライアンスを改善するためにカスタマイズされたレコメンデーションポリシーを設計する。
予備と双対の凸プログラムを定式化し,最適な推奨方針を計算する。
私たちは、信頼、コンプライアンス、満足度を理解するための理論的基盤を作り、インサイダーのコンプライアンスと説得力の度合いを評価するメカニズムを生み出します。
インサイダーを、ディフェンダーとのインセンティブミスアライメントレベルに基づいて、悪意、利害、あるいは快適に分類した後、異なるインサイダーカテゴリのインサイダーに対して、個別の情報開示原則を確立します。
我々は,インサイダーのインセンティブが不明な場合に,有限ステップアルゴリズムが完全に信頼に値する(ct)ポリシーを効率的に学習できる,方針分離性原理と集合凸性を特定する。
最後に,設計の裏付けとなるケーススタディを提案する。
以上の結果から,ZETARはリスクやコンプライアンスの態度の異なるインサイダーに適応でき,コンプライアンスを大幅に改善できることがわかった。
さらに、信頼できるレコメンデーションは、サイバー衛生とインサイダーの満足を促進することができる。
関連論文リスト
- Responsible AI in Open Ecosystems: Reconciling Innovation with Risk Assessment and Disclosure [4.578401882034969]
私たちは、モデルパフォーマンス評価がモデル制限やバイアス、その他のリスクの予測を通知したり、妨げたりする方法について焦点を当てています。
我々の発見は、倫理的取り込みを動機づけつつ、オープンソースのイノベーションを維持するための介入やポリシーを設計するAI提供者や法学者に通知することができる。
論文 参考訳(メタデータ) (2024-09-27T19:09:40Z) - The Pitfalls and Promise of Conformal Inference Under Adversarial Attacks [90.52808174102157]
医療画像や自律運転などの安全クリティカルな応用においては、高い敵の堅牢性を維持し、潜在的敵の攻撃から保護することが不可欠である。
敵対的に訓練されたモデルに固有の不確実性に関して、注目すべき知識ギャップが残っている。
本研究では,共形予測(CP)の性能を標準対向攻撃の文脈で検証することにより,ディープラーニングモデルの不確実性について検討する。
論文 参考訳(メタデータ) (2024-05-14T18:05:19Z) - Technocracy, pseudoscience and performative compliance: the risks of
privacy risk assessments. Lessons from NIST's Privacy Risk Assessment
Methodology [0.0]
プライバシ・リスク・アセスメントは、組織がプライバシ・バイ・デザインを実装することを奨励する、客観的で原則化された方法として評価されてきた。
既存のガイドラインや手法はあいまいであり、プライバシーの害に関する実証的な証拠はほとんどない。
実用的で技術的アプローチの限界と落とし穴を強調します。
論文 参考訳(メタデータ) (2023-08-24T01:32:35Z) - On the Complexity of Adversarial Decision Making [101.14158787665252]
決定推定係数は, 相手の意思決定に対する後悔度を低く抑えるのに必要であり, 十分であることを示す。
我々は、決定推定係数を他のよく知られた複雑性尺度の変種に結びつける新しい構造結果を提供する。
論文 参考訳(メタデータ) (2022-06-27T06:20:37Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Bayesian Persuasion for Algorithmic Recourse [28.586165301962485]
いくつかの状況では、根底にある予測モデルはゲームを避け、競争上の優位性を維持するために意図的に秘密にされている。
我々はベイズ的説得のゲームのような設定を捉え、意思決定者は、例えばアクションレコメンデーションのようなシグナルを、望ましい行動を取るためのインセンティブを与える決定対象に送信する。
本稿では,最適化問題として最適なベイズ的インセンティブ互換(BIC)行動推薦ポリシーを見出すという意思決定者の問題を定式化し,線形プログラムを用いて解を特徴づける。
論文 参考訳(メタデータ) (2021-12-12T17:18:54Z) - Trustworthy Artificial Intelligence and Process Mining: Challenges and
Opportunities [0.8602553195689513]
プロセスマイニングは、AIコンプライアンスプロセスの実行に事実に基づく可視性を得るために有用なフレームワークを提供することができることを示す。
AI規制コンプライアンスプロセスの不確実性を分析し、修正し、監視する自動化アプローチを提供する。
論文 参考訳(メタデータ) (2021-10-06T12:50:47Z) - Policy Gradient Bayesian Robust Optimization for Imitation Learning [49.881386773269746]
我々は、期待される性能とリスクのバランスをとるために、新しいポリシー勾配スタイルのロバスト最適化手法PG-BROILを導出する。
その結果,PG-BROILはリスクニュートラルからリスク・アバースまでの行動のファミリを創出できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-11T16:49:15Z) - Training Value-Aligned Reinforcement Learning Agents Using a Normative
Prior [10.421378728492437]
タスクパフォーマンスの指標のみをフィードバックとして使用することで、タスクを最適に実行するように訓練されたエージェントが、許容される行動や危害を引き起こす社会的規範に違反する可能性がある。
そこで我々は,標準的なタスクパフォーマンス報酬と規範的な行動報酬という2つの報酬信号を持つエージェントを訓練する,価値整合強化学習のアプローチを紹介する。
政策形成手法のバリエーションがこれら2つの報酬源をバランスさせ、効果的かつより規範的であると見なされる政策を生み出す方法を示す。
論文 参考訳(メタデータ) (2021-04-19T17:33:07Z) - Privacy-Constrained Policies via Mutual Information Regularized Policy Gradients [54.98496284653234]
報酬を最大化しつつ、行動を通じて特定の機密状態変数の開示を最小限に抑えながら、報酬を最大化する政策を訓練する課題を考察する。
本稿では, 感性状態と行動の相互情報に基づく正則化器を導入することで, この問題を解決する。
プライバシ制約のあるポリシーを最適化するためのモデルベース推定器を開発した。
論文 参考訳(メタデータ) (2020-12-30T03:22:35Z) - Reliable Off-policy Evaluation for Reinforcement Learning [53.486680020852724]
シーケンシャルな意思決定問題において、非政治評価は、目標政策の期待累積報酬を推定する。
本稿では、1つまたは複数のログデータを用いて、ロバストで楽観的な累積報酬推定を提供する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-08T23:16:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。