論文の概要: Quantifying the Engagement Effectiveness of Cyber Cognitive Attacks: A Behavioral Metric for Disinformation Campaigns
- arxiv url: http://arxiv.org/abs/2510.15805v1
- Date: Fri, 17 Oct 2025 16:34:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.714826
- Title: Quantifying the Engagement Effectiveness of Cyber Cognitive Attacks: A Behavioral Metric for Disinformation Campaigns
- Title(参考訳): サイバー認知攻撃のエンゲージメント効果の定量化:偽情報キャンペーンにおける行動指標
- Authors: Bonnie Rushing, Shouhuai Xu,
- Abstract要約: 本稿では,重み付きインタラクションメトリクスを導入することにより,認知的攻撃のエンゲージメント効果を測定するための新しい枠組みを提案する。
このモデルをソーシャルメディアプラットフォーム全体にわたる現実世界の偽情報キャンペーンに適用することにより、計測値の到達だけでなく、ユーザのエンゲージメントの行動深度も示す。
- 参考スコア(独自算出の注目度): 3.7735437117876267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As disinformation-driven cognitive attacks become increasingly sophisticated, the ability to quantify their impact is essential for advancing cybersecurity defense strategies. This paper presents a novel framework for measuring the engagement effectiveness of cognitive attacks by introducing a weighted interaction metric that accounts for both the type and volume of user engagement relative to the number of attacker-generated transmissions. Applying this model to real-world disinformation campaigns across social media platforms, we demonstrate how the metric captures not just reach but the behavioral depth of user engagement. Our findings provide new insights into the behavioral dynamics of cognitive warfare and offer actionable tools for researchers and practitioners seeking to assess and counter the spread of malicious influence online.
- Abstract(参考訳): 偽情報駆動型認知攻撃がますます高度化するにつれ、その影響を定量化する能力は、サイバーセキュリティ防衛戦略の進展に不可欠である。
本稿では,攻撃発生回数に対してユーザエンゲージメントのタイプとボリュームの両方を考慮に入れた重み付きインタラクション指標を導入することにより,認知攻撃のエンゲージメント効果を測定するための新しい枠組みを提案する。
このモデルをソーシャルメディアプラットフォーム全体にわたる現実世界の偽情報キャンペーンに適用することにより、計測値の到達だけでなく、ユーザのエンゲージメントの行動深度も示す。
本研究は,認知戦の行動動態に関する新たな知見を提供し,オンライン上での悪意ある影響の広がりを評価し,対処しようとする研究者や実践者に対して,行動可能なツールを提供する。
関連論文リスト
- Quantifying Loss Aversion in Cyber Adversaries via LLM Analysis [2.798191832420146]
IARPAのReSCINDプログラムは、攻撃的な認知特性を推論し、防御し、悪用しようと試みている。
本稿では,大規模言語モデル(LLM)を利用して,ハッカー行動からの損失回避の認知バイアスに関する定量的知見を抽出する手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T05:51:30Z) - Comprehensive Survey on Adversarial Examples in Cybersecurity: Impacts, Challenges, and Mitigation Strategies [4.606106768645647]
広告敵例(AE)は、ディープラーニングベースのシステムの堅牢性と信頼性に重要な課題を提起する。
本稿では,主要なサイバーセキュリティアプリケーションに対するAE攻撃の影響を概観する。
我々は,近年の防御機構の進歩を探求し,グラデーションマスキング,対人訓練,検出技術について検討した。
論文 参考訳(メタデータ) (2024-12-16T01:54:07Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Physical Adversarial Attacks For Camera-based Smart Systems: Current
Trends, Categorization, Applications, Research Challenges, and Future Outlook [2.1771693754641013]
本研究の目的は,身体的敵意攻撃の概念を深く理解し,その特徴を分析し,特徴を識別することである。
本稿では, 対象タスクに応じて異なるアプリケーションで分類した, 様々な物理的敵攻撃手法について検討する。
本研究は,これらの攻撃手法の有効性,ステルス性,ロバスト性の観点から評価する。
論文 参考訳(メタデータ) (2023-08-11T15:02:19Z) - SoK: Adversarial Evasion Attacks Practicality in NIDS Domain and the Impact of Dynamic Learning [0.6588840794922407]
敵攻撃は、機械学習モデルを騙して欠陥予測を生成することを目的としている。
本稿では,ML ベースの NIDS に対する敵攻撃の実用性に対するいくつかの重要な貢献について述べる。
本実験は, 対人訓練を伴わない継続的再訓練は, 対人攻撃の有効性を低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-08T18:32:08Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - How Deep Learning Sees the World: A Survey on Adversarial Attacks &
Defenses [0.0]
本稿では、攻撃能力によってグループ化された最新の敵攻撃と、防御戦略によってクラスタ化された現代の防御をコンパイルする。
また、視覚変換器に関する新たな進歩を提示し、敵対的設定の文脈で使用されるデータセットとメトリクスを要約し、異なる攻撃下での最先端の結果を比較し、オープンな問題の特定で終了する。
論文 参考訳(メタデータ) (2023-05-18T10:33:28Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - Adversarial vs behavioural-based defensive AI with joint, continual and
active learning: automated evaluation of robustness to deception, poisoning
and concept drift [62.997667081978825]
人工知能(AI)の最近の進歩は、サイバーセキュリティのための行動分析(UEBA)に新たな能力をもたらした。
本稿では、検出プロセスを改善し、人間の専門知識を効果的に活用することにより、この攻撃を効果的に軽減するソリューションを提案する。
論文 参考訳(メタデータ) (2020-01-13T13:54:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。