論文の概要: System Component-Level Self-Adaptations for Security via Bayesian Games
- arxiv url: http://arxiv.org/abs/2103.08673v1
- Date: Fri, 12 Mar 2021 16:20:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-17 13:31:14.102624
- Title: System Component-Level Self-Adaptations for Security via Bayesian Games
- Title(参考訳): ベイズゲームによるセキュリティのためのシステムコンポーネントレベル自己適応
- Authors: Mingyue Zhang
- Abstract要約: セキュリティ攻撃は、自己適応型システム設計に特有の課題をもたらす。
本稿では,ベイズゲームとディフェンダー(システム)をシステムアーキテクチャのコンポーネントの粒度でモデル化した,新たな自己適応型フレームワークを提案する。
- 参考スコア(独自算出の注目度): 0.676855875213031
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Security attacks present unique challenges to self-adaptive system design due
to the adversarial nature of the environment. However, modeling the system as a
single player, as done in prior works in security domain, is insufficient for
the system under partial compromise and for the design of fine-grained
defensive strategies where the rest of the system with autonomy can cooperate
to mitigate the impact of attacks. To deal with such issues, we propose a new
self-adaptive framework incorporating Bayesian game and model the defender
(i.e., the system) at the granularity of components in system architecture. The
system architecture model is translated into a Bayesian multi-player game,
where each component is modeled as an independent player while security attacks
are encoded as variant types for the components. The defensive strategy for the
system is dynamically computed by solving the pure equilibrium to achieve the
best possible system utility, improving the resiliency of the system against
security attacks.
- Abstract(参考訳): セキュリティ攻撃は、環境の敵対的性質により、自己適応型システム設計に特有の課題をもたらす。
しかし、セキュリティ領域における以前の作業でなされたように、システムを単一プレイヤーとしてモデル化することは、部分的に妥協されたシステムや、自律的なシステムの残りの部分が攻撃の影響を軽減するために協力できるきめ細かい防御戦略の設計には不十分である。
このような問題に対処するために,ベイズゲームとディフェンダー(システム)をシステムアーキテクチャのコンポーネントの粒度でモデル化した,新たな自己適応型フレームワークを提案する。
システムアーキテクチャモデルはベイジアンマルチプレイヤーゲームに変換され、各コンポーネントは独立したプレーヤとしてモデル化され、セキュリティアタックはコンポーネントの変種としてエンコードされる。
システムに対する防御戦略は、純粋な均衡を解いて最善のシステムユーティリティを達成することで動的に計算され、セキュリティ攻撃に対するシステムの弾力性が向上する。
関連論文リスト
- Towards Model Co-evolution Across Self-Adaptation Steps for Combined
Safety and Security Analysis [44.339753503750735]
自己適応システムの異なる側面を記述するモデルをいくつか提示する。
これらのモデルがどのようにしてアタックフォールトツリーに組み込むことができるのかという考え方を概説する。
論文 参考訳(メタデータ) (2023-09-18T10:35:40Z) - Adopting the Actor Model for Antifragile Serverless Architectures [2.602613712854636]
反脆弱性(英語: antifragility)とは、ソフトウェアシステムが障害のような持続的な有害事象に基づいて、時間とともに学習し、改善することに焦点を当てた概念である。
本稿では、サーバーレスシステムにおける監視戦略の導入を支援するための新しい考え方を提案する。
論文 参考訳(メタデータ) (2023-06-26T14:49:10Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Learning Generative Deception Strategies in Combinatorial Masking Games [27.2744631811653]
詐欺の1つの方法は、システムがどのように構成されているかに関する情報を隠蔽したり、マスキングしたりすることである。
本稿では,攻撃者側がマスクする属性のサブセットを選択するのに対して,攻撃者は攻撃を行うエクスプロイトを選択することで応答する,結果として生じるディフェンダー・アタックラー相互作用のゲーム理論モデルを提案する。
両プレイヤーの戦略をニューラルネットワークとして表現することにより,そのようなゲームを概ね解くための,新しい高度にスケーラブルなアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-23T20:42:44Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Invisible for both Camera and LiDAR: Security of Multi-Sensor Fusion
based Perception in Autonomous Driving Under Physical-World Attacks [62.923992740383966]
本稿では,MDFに基づくADシステムにおけるセキュリティ問題の最初の研究について述べる。
物理的に実現可能な逆3Dプリントオブジェクトを生成し、ADシステムが検出に失敗してクラッシュする。
以上の結果から,攻撃は様々なオブジェクトタイプおよびMSFに対して90%以上の成功率を達成した。
論文 参考訳(メタデータ) (2021-06-17T05:11:07Z) - GRAVITAS: Graphical Reticulated Attack Vectors for Internet-of-Things
Aggregate Security [5.918387680589584]
IoT(Internet-of-Things)とサイバー物理システム(CPS)は、複雑なネットワークトポロジで接続された何千ものデバイスで構成されている可能性がある。
我々は、未発見の攻撃ベクトルを識別できるIoT/CPSのための包括的リスク管理システムGRAVITASについて述べる。
論文 参考訳(メタデータ) (2021-05-31T19:35:23Z) - Constraints Satisfiability Driven Reinforcement Learning for Autonomous
Cyber Defense [7.321728608775741]
強化学習(RL)の防御政策の最適化と検証を目的とした新しいハイブリッド自律エージェントアーキテクチャを紹介します。
我々は、安全かつ効果的な行動に向けてRL決定を操るために、制約検証(SMT(Satisfiability modulo theory))を用いる。
シミュレーションCPS環境における提案手法の評価は,エージェントが最適方針を迅速に学習し,99%のケースで多種多様な攻撃戦略を破ることを示す。
論文 参考訳(メタデータ) (2021-04-19T01:08:30Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。