論文の概要: Online Incident Response Planning under Model Misspecification through Bayesian Learning and Belief Quantization
- arxiv url: http://arxiv.org/abs/2508.14385v1
- Date: Wed, 20 Aug 2025 03:25:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-21 16:52:41.325482
- Title: Online Incident Response Planning under Model Misspecification through Bayesian Learning and Belief Quantization
- Title(参考訳): ベイズ学習と信念量子化によるモデルミス特定によるオンラインインシデント対応計画
- Authors: Kim Hammar, Tao Li,
- Abstract要約: モデル不特定性に基づくインシデント対応計画のためのオンライン手法をMOBALと呼ぶ。
予測モデルを有限モデルに量子化し、動的プログラミングによる効率的な応答計画を可能にする。
CAGE-2ベンチマークの実験では、MOBALは不特定性に対する適応性と堅牢性の観点から、技術の現状よりも優れていた。
- 参考スコア(独自算出の注目度): 3.0346001106791323
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Effective responses to cyberattacks require fast decisions, even when information about the attack is incomplete or inaccurate. However, most decision-support frameworks for incident response rely on a detailed system model that describes the incident, which restricts their practical utility. In this paper, we address this limitation and present an online method for incident response planning under model misspecification, which we call MOBAL: Misspecified Online Bayesian Learning. MOBAL iteratively refines a conjecture about the model through Bayesian learning as new information becomes available, which facilitates model adaptation as the incident unfolds. To determine effective responses online, we quantize the conjectured model into a finite Markov model, which enables efficient response planning through dynamic programming. We prove that Bayesian learning is asymptotically consistent with respect to the information feedback. Additionally, we establish bounds on misspecification and quantization errors. Experiments on the CAGE-2 benchmark show that MOBAL outperforms the state of the art in terms of adaptability and robustness to model misspecification.
- Abstract(参考訳): サイバー攻撃に対する効果的な対応は、攻撃に関する情報が不完全または不正確な場合でも、迅速な決定を必要とする。
しかしながら、インシデント対応のためのほとんどの意思決定支援フレームワークは、インシデントを記述する詳細なシステムモデルに依存しており、その実用性を制限する。
本稿では,この制限に対処し,モデル誤特定に基づくインシデント対応計画のオンライン手法を提案する。
MOBALはベイズ学習を通じてモデルに関する推測を反復的に洗練し、新たな情報が得られるようにし、インシデントが展開するにつれてモデル適応を促進する。
オンライン上で有効な応答を決定するために,予測されたモデルを有限マルコフモデルに量子化し,動的プログラミングによる効率的な応答計画を可能にする。
ベイズ学習は情報フィードバックに関して漸近的に一致していることを示す。
さらに,誤特定と量子化誤差の限界を定めている。
CAGE-2ベンチマークの実験では、MOBALは不特定性モデルへの適応性と堅牢性という点で最先端よりも優れていた。
関連論文リスト
- Look Before Leap: Look-Ahead Planning with Uncertainty in Reinforcement Learning [4.902161835372679]
モデルに基づく探索計画を用いた不確実性を考慮したポリシー最適化のための新しいフレームワークを提案する。
政策最適化フェーズでは、不確実性駆動型探索政策を活用し、多様なトレーニングサンプルを積極的に収集する。
我々のアプローチは、様々な状態/行動空間と報酬構造を持つタスクに柔軟性と適用性を提供します。
論文 参考訳(メタデータ) (2025-03-26T01:07:35Z) - Towards Trustworthy Web Attack Detection: An Uncertainty-Aware Ensemble Deep Kernel Learning Model [4.791983040541727]
本稿では,Web攻撃を検出するために,不確実性を意識したEnsemble Deep Kernel Learning(UEDKL)モデルを提案する。
提案したUEDKLは、ディープカーネル学習モデルを用いて、通常のHTTPリクエストと異なるタイプのWeb攻撃を区別する。
BDCIとSRBHデータセットの実験により、提案したUEDKLフレームワークは、Web攻撃検出性能と不確実性推定品質の両方に大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2024-10-10T08:47:55Z) - Multi-Model based Federated Learning Against Model Poisoning Attack: A Deep Learning Based Model Selection for MEC Systems [11.564289367348334]
フェデレートラーニング(FL)は、データプライバシを保持しながら、分散データからグローバルモデルのトレーニングを可能にする。
本稿では, モデル中毒対策の機会を高めるための積極的メカニズムとして, マルチモデルFLを提案する。
DDoS攻撃検出のシナリオでは、システムは攻撃を受けないというシナリオと、認識時間の改善の可能性によって、毒殺攻撃下での競争精度の向上が示される。
論文 参考訳(メタデータ) (2024-09-12T17:36:26Z) - MisGUIDE : Defense Against Data-Free Deep Learning Model Extraction [0.8437187555622164]
MisGUIDE(ミスGUIDE)は、ディープラーニングモデルのための2段階の防御フレームワークである。
提案手法の目的は,真正クエリの精度を維持しつつ,クローンモデルの精度を下げることである。
論文 参考訳(メタデータ) (2024-03-27T13:59:21Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - DST: Dynamic Substitute Training for Data-free Black-box Attack [79.61601742693713]
そこで本研究では,対象モデルからより高速に学習するための代用モデルの促進を目的とした,新しい動的代用トレーニング攻撃手法を提案する。
タスク駆動型グラフに基づく構造情報学習の制約を導入し、生成したトレーニングデータの質を向上させる。
論文 参考訳(メタデータ) (2022-04-03T02:29:11Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Sufficiently Accurate Model Learning for Planning [119.80502738709937]
本稿では,制約付きSufficiently Accurateモデル学習手法を提案する。
これはそのような問題の例を示し、いくつかの近似解がいかに近いかという定理を提示する。
近似解の質は、関数のパラメータ化、損失と制約関数の滑らかさ、モデル学習におけるサンプルの数に依存する。
論文 参考訳(メタデータ) (2021-02-11T16:27:31Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z) - Bootstrapped model learning and error correction for planning with
uncertainty in model-based RL [1.370633147306388]
自然の目的は、環境のダイナミクスを正確に反映したモデルを学ぶことである。
本稿では,不確実性を考慮した強化学習エージェントによるモデルミス特定の問題について検討する。
本稿では,将来の状態と報酬の分布を学習するブートストラップ型マルチヘッドニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-15T15:41:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。