論文の概要: Towards Proactive Defense Against Cyber Cognitive Attacks
- arxiv url: http://arxiv.org/abs/2510.15801v1
- Date: Fri, 17 Oct 2025 16:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.71292
- Title: Towards Proactive Defense Against Cyber Cognitive Attacks
- Title(参考訳): サイバー認知攻撃に対する積極的な防御に向けて
- Authors: Bonnie Rushing, Mac-Rufus Umeokolo, Shouhuai Xu,
- Abstract要約: サイバー認知攻撃は破壊的革新(DI)を活用し、心理的バイアスを利用して意思決定プロセスを操作する。
AI駆動の偽情報や合成メディアといった新しい技術は、これらの脅威の規模と洗練を加速してきた。
認知攻撃におけるDIの出現とその悪用を予測する新しい予測手法を提案する。
- 参考スコア(独自算出の注目度): 3.357544650969485
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyber cognitive attacks leverage disruptive innovations (DIs) to exploit psychological biases and manipulate decision-making processes. Emerging technologies, such as AI-driven disinformation and synthetic media, have accelerated the scale and sophistication of these threats. Prior studies primarily categorize current cognitive attack tactics, lacking predictive mechanisms to anticipate future DIs and their malicious use in cognitive attacks. This paper addresses these gaps by introducing a novel predictive methodology for forecasting the emergence of DIs and their malicious uses in cognitive attacks. We identify trends in adversarial tactics and propose proactive defense strategies.
- Abstract(参考訳): サイバー認知攻撃は破壊的革新(DI)を活用し、心理的バイアスを利用して意思決定プロセスを操作する。
AI駆動の偽情報や合成メディアといった新興技術は、これらの脅威の規模と洗練を加速させてきた。
先行研究は、主に現在の認知攻撃戦術を分類し、将来のDIと認知攻撃における悪意のある使用を予測する予測メカニズムを欠いている。
本稿では,DIの出現と認知攻撃における悪用を予測する新しい予測手法を導入することにより,これらのギャップに対処する。
敵戦術の動向を特定し,積極的な防衛戦略を提案する。
関連論文リスト
- Quantifying Loss Aversion in Cyber Adversaries via LLM Analysis [2.798191832420146]
IARPAのReSCINDプログラムは、攻撃的な認知特性を推論し、防御し、悪用しようと試みている。
本稿では,大規模言語モデル(LLM)を利用して,ハッカー行動からの損失回避の認知バイアスに関する定量的知見を抽出する手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T05:51:30Z) - A Case Study on the Use of Representativeness Bias as a Defense Against Adversarial Cyber Threats [1.74585489563148]
本稿では,心理学的インフォームド・アクティブ・ディフェンス戦略への第一歩を踏み出す。
キャプチャー・ザ・フラッグ(capt-the-flag)イベントを使用することで、特定の認知バイアス、つまり代表性を活用する現実的な課題が生まれる。
この研究は、このバイアスがハッキング未遂を防ぎ、ハッカーを無防備な攻撃経路へと逸脱させる可能性があることを発見した。
論文 参考訳(メタデータ) (2025-04-28T20:30:28Z) - Modern DDoS Threats and Countermeasures: Insights into Emerging Attacks and Detection Strategies [49.57278643040602]
分散型サービス拒否(DDoS)攻撃は、オンラインサービスとインフラストラクチャに対する重大な脅威として継続する。
本稿は、過去10年間のDDoS攻撃と検出戦略の包括的調査を提供する。
論文 参考訳(メタデータ) (2025-02-27T11:22:25Z) - Intelligent Attacks on Cyber-Physical Systems and Critical Infrastructures [0.0]
この章は、サイバー物理システムと重要なインフラにおける攻撃の進化の状況の概要を提供する。
人工知能(AI)アルゴリズムによるインテリジェントなサイバーアタックの開発の可能性を強調している。
論文 参考訳(メタデータ) (2025-01-22T09:54:58Z) - A Comprehensive Review of Adversarial Attacks on Machine Learning [0.5104264623877593]
本研究は、AIモデルとMLモデルに対する敵攻撃の包括的概要を提供し、様々な攻撃タイプ、テクニック、潜在的な害を探索する。
実用的な洞察を得るためには、自動運転車のような現実世界のユースケースに対する攻撃をシミュレートするために、Adversarial Robustness Toolbox(ART)ライブラリを使用します。
論文 参考訳(メタデータ) (2024-12-16T02:27:54Z) - The Shadow of Fraud: The Emerging Danger of AI-powered Social Engineering and its Possible Cure [30.431292911543103]
社会工学(SE)攻撃は個人と組織双方にとって重大な脅威である。
人工知能(AI)の進歩は、よりパーソナライズされ説得力のある攻撃を可能にすることによって、これらの脅威を強化する可能性がある。
本研究は、SE攻撃機構を分類し、その進化を分析し、これらの脅威を測定する方法を探る。
論文 参考訳(メタデータ) (2024-07-22T17:37:31Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。