論文の概要: Scenario-Agnostic Zero-Trust Defense with Explainable Threshold Policy:
A Meta-Learning Approach
- arxiv url: http://arxiv.org/abs/2303.03349v1
- Date: Mon, 6 Mar 2023 18:35:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:03:02.154437
- Title: Scenario-Agnostic Zero-Trust Defense with Explainable Threshold Policy:
A Meta-Learning Approach
- Title(参考訳): 説明可能な閾値ポリシーを用いたシナリオ非依存ゼロトラスト防御:メタラーニングアプローチ
- Authors: Yunfei Ge, Tao Li, and Quanyan Zhu
- Abstract要約: 本稿では,部分観測可能なマルコフ決定プロセス(POMDP)と一次メタラーニングに基づくシナリオに依存しないゼロトラスト防御を提案する。
ケーススタディと実世界の攻撃を使って結果を裏付ける。
- 参考スコア(独自算出の注目度): 20.11993437283895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing connectivity and intricate remote access environment have made
traditional perimeter-based network defense vulnerable. Zero trust becomes a
promising approach to provide defense policies based on agent-centric trust
evaluation. However, the limited observations of the agent's trace bring
information asymmetry in the decision-making. To facilitate the human
understanding of the policy and the technology adoption, one needs to create a
zero-trust defense that is explainable to humans and adaptable to different
attack scenarios. To this end, we propose a scenario-agnostic zero-trust
defense based on Partially Observable Markov Decision Processes (POMDP) and
first-order Meta-Learning using only a handful of sample scenarios. The
framework leads to an explainable and generalizable trust-threshold defense
policy. To address the distribution shift between empirical security datasets
and reality, we extend the model to a robust zero-trust defense minimizing the
worst-case loss. We use case studies and real-world attacks to corroborate the
results.
- Abstract(参考訳): 接続の増大と複雑なリモートアクセス環境により、従来のペリメータベースのネットワーク防御は脆弱になっている。
ゼロ信頼は、エージェント中心の信頼評価に基づく防衛政策を提供する有望なアプローチとなる。
しかし、エージェントのトレースの限られた観察は、意思決定において情報非対称性をもたらす。
政策と技術導入の人間的理解を促進するためには、人間に説明可能で、異なる攻撃シナリオに適応可能なゼロトラスト防御を作成する必要がある。
そこで本研究では,一握りのサンプルシナリオのみを用いて,部分可観測マルコフ決定プロセス(pomdp)と一階メタラーニングに基づくシナリオ非依存なゼロトラスト防御を提案する。
この枠組みは説明可能で一般化可能な信頼層防衛政策につながる。
実証的セキュリティデータセットと現実の間の分散シフトに対処するため、最悪のケース損失を最小限に抑えるロバストなゼロトラスト防御にモデルを拡張します。
ケーススタディと実世界の攻撃を使って結果を裏付ける。
関連論文リスト
- Robust Federated Learning Mitigates Client-side Training Data
Distribution Inference Attacks [53.210725411547806]
InferGuardは、クライアント側のトレーニングデータ分散推論攻撃に対する防御を目的とした、新しいビザンチン・ロバスト集約ルールである。
実験の結果,我々の防衛機構はクライアント側のトレーニングデータ分布推定攻撃に対する防御に極めて有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-05T17:41:35Z) - Optimal Zero-Shot Detector for Multi-Armed Attacks [30.906457338347447]
本稿では,悪意あるアクターが多武器攻撃戦略を用いてデータサンプルを操作するシナリオについて考察する。
私たちの中心的な目的は、入力の変更を検出してデータを保護することです。
我々はこれらの検出器による決定を最適に集約する革新的な情報理論防衛手法を導出する。
論文 参考訳(メタデータ) (2024-02-24T13:08:39Z) - Towards Attack-tolerant Federated Learning via Critical Parameter
Analysis [85.41873993551332]
フェデレートされた学習システムは、悪意のあるクライアントが中央サーバーに誤ったアップデートを送信すると、攻撃を害するおそれがある。
本稿では,新たな防衛戦略であるFedCPA(Federated Learning with critical Analysis)を提案する。
攻撃耐性凝集法は, 有害局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒局所モデルでは有毒であるのに対し, 類似したトップkおよびボトムk臨界パラメータを持つ。
論文 参考訳(メタデータ) (2023-08-18T05:37:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - LearnDefend: Learning to Defend against Targeted Model-Poisoning Attacks
on Federated Learning [15.649086996679914]
近年の研究では、入力空間のごく一部を標的とするエッジケース攻撃は、既存の固定防御戦略で対処することがほぼ不可能であることが示された。
本稿では,このような攻撃に対する学習防御戦略を,小さな防衛データセットを用いて設計する。
提案されたフレームワークであるLearnDefendは、クライアント更新が悪意がある確率を推定する。
論文 参考訳(メタデータ) (2023-05-03T10:20:26Z) - Why Should Adversarial Perturbations be Imperceptible? Rethink the
Research Paradigm in Adversarial NLP [83.66405397421907]
セキュリティシナリオにおけるテキスト敵検体の研究パラダイムを再考する。
最初に、セキュリティデータセットコレクションのAdvbenchを収集し、処理し、リリースします。
次に,現実の攻撃手法をシミュレートするために,現実の敵目標を容易に達成できるルールに基づく簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-10-19T15:53:36Z) - FedDef: Defense Against Gradient Leakage in Federated Learning-based
Network Intrusion Detection Systems [15.39058389031301]
FLベースのNIDS向けに設計された2つのプライバシ評価指標を提案する。
提案するFedDefは,理論的保証を備えた新しい最適化型入力摂動防御戦略である。
4つのデータセットに対する4つの既存の防御を実験的に評価し、プライバシ保護の観点から、我々の防衛がすべてのベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2022-10-08T15:23:30Z) - A Unified Evaluation of Textual Backdoor Learning: Frameworks and
Benchmarks [72.7373468905418]
我々は,テキストバックドア学習の実装と評価を促進するオープンソースツールキットOpenBackdoorを開発した。
また,単純なクラスタリングに基づく防御ベースラインであるCUBEを提案する。
論文 参考訳(メタデータ) (2022-06-17T02:29:23Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。