論文の概要: Deception for Cyber Defence: Challenges and Opportunities
- arxiv url: http://arxiv.org/abs/2208.07127v1
- Date: Mon, 15 Aug 2022 11:42:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 15:04:02.909971
- Title: Deception for Cyber Defence: Challenges and Opportunities
- Title(参考訳): サイバー防衛のデセプション:挑戦と機会
- Authors: David Liebowitz, Surya Nepal, Kristen Moore, Cody J. Christopher,
Salil S. Kanhere, David Nguyen, Roelien C. Timmer, Michael Longland, Keerth
Rathakumar
- Abstract要約: 機械学習の最近の進歩は、スケーラブルで自動化された現実的な騙しの発生の機会を生み出している。
このビジョンペーパーでは、騙し効果のためにITスタックの多くの共通要素を模倣するモデルを開発する上での機会と課題について説明する。
- 参考スコア(独自算出の注目度): 16.685159244363604
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deception is rapidly growing as an important tool for cyber defence,
complementing existing perimeter security measures to rapidly detect breaches
and data theft. One of the factors limiting the use of deception has been the
cost of generating realistic artefacts by hand. Recent advances in Machine
Learning have, however, created opportunities for scalable, automated
generation of realistic deceptions. This vision paper describes the
opportunities and challenges involved in developing models to mimic many common
elements of the IT stack for deception effects.
- Abstract(参考訳): 偽造はサイバー防衛の重要なツールとして急速に成長しており、侵入やデータ盗難を迅速に検出するための既存の周辺セキュリティ対策を補完している。
偽装の使用を制限する要因の1つは、リアルなアーティファクトを手で生成するコストである。
しかし、機械学習の最近の進歩は、現実的なデセプションをスケーラブルで自動生成する機会を生み出した。
本稿では,itスタックの多くの共通要素を模倣したモデル開発に関わる機会と課題について述べる。
関連論文リスト
- Killer Apps: Low-Speed, Large-Scale AI Weapons [2.573638046525981]
人工知能(AI)と機械学習(ML)の進歩は、戦争と安全保障における新たな課題と機会を提示する。
本稿では,AI兵器の概念,その展開,検出,潜在的な対策について検討する。
論文 参考訳(メタデータ) (2024-01-14T12:09:40Z) - HW-V2W-Map: Hardware Vulnerability to Weakness Mapping Framework for
Root Cause Analysis with GPT-assisted Mitigation Suggestion [3.847218857469107]
HW-V2W-Map Frameworkは、ハードウェア脆弱性とIoT(Internet of Things)セキュリティに焦点を当てた機械学習(ML)フレームワークである。
私たちが提案したアーキテクチャには,オントロジーを更新するプロセスを自動化する,オントロジー駆動のストーリテリングフレームワークが組み込まれています。
提案手法は,GPT (Generative Pre-trained Transformer) Large Language Models (LLMs) を用いて緩和提案を行った。
論文 参考訳(メタデータ) (2023-12-21T02:14:41Z) - Attention-Based Real-Time Defenses for Physical Adversarial Attacks in
Vision Applications [58.06882713631082]
ディープニューラルネットワークはコンピュータビジョンタスクにおいて優れたパフォーマンスを示すが、現実の敵攻撃に対する脆弱性は深刻なセキュリティ上の懸念を引き起こす。
本稿では、敵チャネルの注意力を利用して、浅いネットワーク層における悪意のある物体を素早く識別・追跡する、効果的な注意に基づく防御機構を提案する。
また、効率的な多フレーム防御フレームワークを導入し、防御性能と計算コストの両方を評価することを目的とした広範な実験を通じて、その有効性を検証した。
論文 参考訳(メタデータ) (2023-11-19T00:47:17Z) - Brain-Inspired Computational Intelligence via Predictive Coding [89.6335791546526]
予測符号化(PC)は、マシンインテリジェンスタスクにおいて有望なパフォーマンスを示している。
PCは様々な脳領域で情報処理をモデル化することができ、認知制御やロボティクスで使用することができる。
論文 参考訳(メタデータ) (2023-08-15T16:37:16Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Proceedings - AI/ML for Cybersecurity: Challenges, Solutions, and Novel
Ideas at SIAM Data Mining 2021 [6.647584840410018]
悪意あるサイバー活動はユビキタスであり、その有害な影響は社会に劇的かつしばしば不可逆的な影響を及ぼす。
この分野の課題は、コンピュータビジョンのような他の領域にAIを適用することに関連する問題とは大きく異なる。
これらの課題にもかかわらず、機械学習はこの分野に適用され、検出の分野で成功を収めている。
商業部門では、ML強化機能をサービスとして提供しています。
論文 参考訳(メタデータ) (2021-04-27T17:35:31Z) - Adversarial Attacks for Tabular Data: Application to Fraud Detection and
Imbalanced Data [3.2458203725405976]
逆の攻撃は、逆の例、つまり、AIシステムが間違った出力を返すように誘導するわずかに変更された入力を生成することを目的としています。
本稿では,不正検出の文脈において,最先端アルゴリズムを不均衡データに適用する新しい手法を提案する。
実験の結果,提案する修正が攻撃成功率に繋がることがわかった。
実世界の生産システムに適用した場合,提案手法は,高度なaiに基づく不正検出手法の堅牢性に重大な脅威を与える可能性を示す。
論文 参考訳(メタデータ) (2021-01-20T08:58:29Z) - Measurement-driven Security Analysis of Imperceptible Impersonation
Attacks [54.727945432381716]
本稿では,ディープニューラルネットワークを用いた顔認識システムの実用性について検討する。
皮膚の色,性別,年齢などの要因が,特定の標的に対する攻撃を行う能力に影響を及ぼすことを示す。
また,攻撃者の顔のさまざまなポーズや視点に対して堅牢なユニバーサルアタックを構築する可能性についても検討した。
論文 参考訳(メタデータ) (2020-08-26T19:27:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。