論文の概要: Scenario-Agnostic Zero-Trust Defense with Explainable Threshold Policy:
A Meta-Learning Approach
- arxiv url: http://arxiv.org/abs/2303.03349v1
- Date: Mon, 6 Mar 2023 18:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:03:02.154437
- Title: Scenario-Agnostic Zero-Trust Defense with Explainable Threshold Policy:
A Meta-Learning Approach
- Title(参考訳): 説明可能な閾値ポリシーを用いたシナリオ非依存ゼロトラスト防御:メタラーニングアプローチ
- Authors: Yunfei Ge, Tao Li, and Quanyan Zhu
- Abstract要約: 本稿では,部分観測可能なマルコフ決定プロセス(POMDP)と一次メタラーニングに基づくシナリオに依存しないゼロトラスト防御を提案する。
ケーススタディと実世界の攻撃を使って結果を裏付ける。
- 参考スコア(独自算出の注目度): 20.11993437283895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing connectivity and intricate remote access environment have made
traditional perimeter-based network defense vulnerable. Zero trust becomes a
promising approach to provide defense policies based on agent-centric trust
evaluation. However, the limited observations of the agent's trace bring
information asymmetry in the decision-making. To facilitate the human
understanding of the policy and the technology adoption, one needs to create a
zero-trust defense that is explainable to humans and adaptable to different
attack scenarios. To this end, we propose a scenario-agnostic zero-trust
defense based on Partially Observable Markov Decision Processes (POMDP) and
first-order Meta-Learning using only a handful of sample scenarios. The
framework leads to an explainable and generalizable trust-threshold defense
policy. To address the distribution shift between empirical security datasets
and reality, we extend the model to a robust zero-trust defense minimizing the
worst-case loss. We use case studies and real-world attacks to corroborate the
results.
- Abstract(参考訳): 接続の増大と複雑なリモートアクセス環境により、従来のペリメータベースのネットワーク防御は脆弱になっている。
ゼロ信頼は、エージェント中心の信頼評価に基づく防衛政策を提供する有望なアプローチとなる。
しかし、エージェントのトレースの限られた観察は、意思決定において情報非対称性をもたらす。
政策と技術導入の人間的理解を促進するためには、人間に説明可能で、異なる攻撃シナリオに適応可能なゼロトラスト防御を作成する必要がある。
そこで本研究では,一握りのサンプルシナリオのみを用いて,部分可観測マルコフ決定プロセス(pomdp)と一階メタラーニングに基づくシナリオ非依存なゼロトラスト防御を提案する。
この枠組みは説明可能で一般化可能な信頼層防衛政策につながる。
実証的セキュリティデータセットと現実の間の分散シフトに対処するため、最悪のケース損失を最小限に抑えるロバストなゼロトラスト防御にモデルを拡張します。
ケーススタディと実世界の攻撃を使って結果を裏付ける。
関連論文リスト
- Criticality and Safety Margins for Reinforcement Learning [53.10194953873209]
我々は,定量化基盤真理とユーザにとっての明確な意義の両面から,批判的枠組みを定めようとしている。
エージェントがn連続的ランダム動作に対するポリシーから逸脱した場合の報酬の減少として真臨界を導入する。
我々はまた、真の臨界と統計的に単調な関係を持つ低オーバーヘッド計量であるプロキシ臨界の概念も導入する。
論文 参考訳(メタデータ) (2024-09-26T21:00:45Z) - Sequential Manipulation Against Rank Aggregation: Theory and Algorithm [119.57122943187086]
脆弱なデータ収集プロセスに対するオンライン攻撃を活用します。
ゲーム理論の観点からは、対決シナリオは分布的に堅牢なゲームとして定式化される。
提案手法は,ランクアグリゲーション手法の結果を逐次的に操作する。
論文 参考訳(メタデータ) (2024-07-02T03:31:21Z) - Optimal Zero-Shot Detector for Multi-Armed Attacks [30.906457338347447]
本稿では,悪意あるアクターが多武器攻撃戦略を用いてデータサンプルを操作するシナリオについて考察する。
私たちの中心的な目的は、入力の変更を検出してデータを保護することです。
我々はこれらの検出器による決定を最適に集約する革新的な情報理論防衛手法を導出する。
論文 参考訳(メタデータ) (2024-02-24T13:08:39Z) - Zero Trust for Cyber Resilience [13.343937277604892]
この章はゼロトラストモデルにおけるサイバーレジリエンスに注意を向けている。
従来の周辺セキュリティからゼロ信頼への進化を紹介し,その違いについて議論する。
論文 参考訳(メタデータ) (2023-12-05T16:53:20Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Safe Explicable Planning [3.3869539907606603]
安全計画(SEP:Safe Explicable Planning)を提案する。
提案手法は,複数のモデルから派生した複数の対象の考察を一般化する。
これらの手法の望ましい理論的性質を検証するための公式な証明を提供する。
論文 参考訳(メタデータ) (2023-04-04T21:49:02Z) - Why Should Adversarial Perturbations be Imperceptible? Rethink the
Research Paradigm in Adversarial NLP [83.66405397421907]
セキュリティシナリオにおけるテキスト敵検体の研究パラダイムを再考する。
最初に、セキュリティデータセットコレクションのAdvbenchを収集し、処理し、リリースします。
次に,現実の攻撃手法をシミュレートするために,現実の敵目標を容易に達成できるルールに基づく簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-10-19T15:53:36Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。