論文の概要: Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift
- arxiv url: http://arxiv.org/abs/2001.11821v1
- Date: Mon, 13 Jan 2020 13:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 22:23:55.138439
- Title: Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift
- Title(参考訳): 関節・連続・能動的学習を用いた対人対行動型防衛AI--騙し・毒殺・概念漂流に対する堅牢性の自動評価
- Authors: Alexandre Dey, Marc Velay, Jean-Philippe Fauvelle, Sylvain Navers
- Abstract要約: 人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
- 参考スコア(独自算出の注目度): 62.997667081978825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advancements in Artificial Intelligence (AI) have brought new
capabilities to behavioural analysis (UEBA) for cyber-security consisting in
the detection of hostile action based on the unusual nature of events observed
on the Information System.In our previous work (presented at C\&ESAR 2018 and
FIC 2019), we have associated deep neural networks auto-encoders for anomaly
detection and graph-based events correlation to address major limitations in
UEBA systems. This resulted in reduced false positive and false negative rates,
improved alert explainability, while maintaining real-time performances and
scalability. However, we did not address the natural evolution of behaviours
through time, also known as concept drift. To maintain effective detection
capabilities, an anomaly-based detection system must be continually trained,
which opens a door to an adversary that can conduct the so-called
"frog-boiling" attack by progressively distilling unnoticed attack traces
inside the behavioural models until the complete attack is considered normal.
In this paper, we present a solution to effectively mitigate this attack by
improving the detection process and efficiently leveraging human expertise. We
also present preliminary work on adversarial AI conducting deception attack,
which, in term, will be used to help assess and improve the defense system.
These defensive and offensive AI implement joint, continual and active
learning, in a step that is necessary in assessing, validating and certifying
AI-based defensive solutions.
- Abstract(参考訳): 人工知能(AI)の最近の進歩は、情報システムで観測される事象の異常な性質に基づく敵対行為の検出を含むサイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらしています。
その結果、偽陽性と偽陰性率の低減、警告説明性の向上、リアルタイムのパフォーマンスとスケーラビリティの維持が実現した。
しかし、私たちは時間を通しての行動の自然な進化、つまり概念ドリフトに対処しなかった。
効果的な検出能力を維持するために、異常に基づく検知システムは継続的に訓練されなければならない。これは敵への扉を開くことで、完全な攻撃が正常になるまで、行動モデル内の無意識な攻撃痕跡を徐々に蒸留することで、いわゆる「フロッグボイリング」攻撃を行うことができる。
本稿では,検出プロセスを改善し,人間の専門知識を効率的に活用することにより,この攻撃を効果的に軽減する手法を提案する。
また, 防御システムの評価と改善に役立てるために, 対向型aiによる偽装攻撃に関する予備的な研究についても述べる。
これらの防衛的で攻撃的なAIは、AIベースの防御ソリューションを評価し、検証し、認定するために必要なステップとして、ジョイント、継続、アクティブな学習を実装します。
関連論文リスト
- Slot: Provenance-Driven APT Detection through Graph Reinforcement Learning [26.403625710805418]
先進的永続脅威(Advanced Persistent Threats、APT)は、長期にわたって検出されていない能力によって特徴づけられる高度なサイバー攻撃である。
本稿では,前駆グラフとグラフ強化学習に基づく高度なAPT検出手法であるSlotを提案する。
Slotの卓越した精度、効率、適応性、そしてAPT検出の堅牢性を示し、ほとんどのメトリクスは最先端の手法を超越している。
論文 参考訳(メタデータ) (2024-10-23T14:28:32Z) - Improving the Robustness of Object Detection and Classification AI models against Adversarial Patch Attacks [2.963101656293054]
我々は攻撃手法を解析し、堅牢な防御手法を提案する。
我々は,物体形状,テクスチャ,位置を利用する逆パッチ攻撃を用いて,モデル信頼度を20%以上下げることに成功した。
敵攻撃にも拘わらず,本手法はモデルレジリエンスを著しく向上させ,高精度かつ信頼性の高いローカライゼーションを実現している。
論文 参考訳(メタデータ) (2024-03-04T13:32:48Z) - A Robust Likelihood Model for Novelty Detection [8.766411351797883]
新規性や異常検出に対する現在のアプローチは、ディープニューラルネットワークに基づいている。
我々は、攻撃に対する防御として、新規性テストの堅牢な可能性を学ぶことを目的とした新しい事前提案を行う。
我々はまた、最先端のノベルティ検出アプローチと、それ以前のものを統合する。
論文 参考訳(メタデータ) (2023-06-06T01:02:31Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - RobustSense: Defending Adversarial Attack for Secure Device-Free Human
Activity Recognition [37.387265457439476]
我々は、共通の敵攻撃を防御する新しい学習フレームワーク、RobustSenseを提案する。
本手法は,無線による人間行動認識と人物識別システムに有効である。
論文 参考訳(メタデータ) (2022-04-04T15:06:03Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Model-Agnostic Meta-Attack: Towards Reliable Evaluation of Adversarial
Robustness [53.094682754683255]
モデル非依存型メタアタック(MAMA)アプローチにより,より強力な攻撃アルゴリズムを自動検出する。
本手法は、繰り返しニューラルネットワークによってパラメータ化された逆攻撃を学習する。
本研究では,未知の防御を攻撃した場合の学習能力を向上させるために,モデルに依存しない訓練アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-10-13T13:54:24Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial defense for automatic speaker verification by cascaded
self-supervised learning models [101.42920161993455]
ますます悪意のある攻撃者は、自動話者検証(ASV)システムで敵攻撃を仕掛けようとする。
本稿では,逐次的自己教師付き学習モデルに基づく標準的かつ攻撃非依存な手法を提案する。
実験により, 本手法は効果的な防御性能を実現し, 敵攻撃に対抗できることを示した。
論文 参考訳(メタデータ) (2021-02-14T01:56:43Z) - Towards Understanding the Adversarial Vulnerability of Skeleton-based
Action Recognition [133.35968094967626]
骨格に基づく行動認識は、動的状況への強い適応性から注目を集めている。
ディープラーニング技術の助けを借りて、かなり進歩し、現在、良識のある環境で約90%の精度を達成している。
異なる対角的環境下での骨格に基づく行動認識の脆弱性に関する研究はいまだ研究されていない。
論文 参考訳(メタデータ) (2020-05-14T17:12:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。