論文の概要: Guarding Against Malicious Biased Threats (GAMBiT) Experiments: Revealing Cognitive Bias in Human-Subjects Red-Team Cyber Range Operations
- arxiv url: http://arxiv.org/abs/2508.20963v1
- Date: Thu, 28 Aug 2025 16:20:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.505314
- Title: Guarding Against Malicious Biased Threats (GAMBiT) Experiments: Revealing Cognitive Bias in Human-Subjects Red-Team Cyber Range Operations
- Title(参考訳): GAMBiT実験 : レッドチームサイバーレンジ操作における認知バイアスの発見
- Authors: Brandon Beltz, Jim Doty, Yvonne Fonken, Nikolos Gurney, Brett Israelsen, Nathan Lau, Stacy Marsella, Rachelle Thomas, Stoney Trent, Peggy Wu, Ya-Ting Yang, Quanyan Zhu,
- Abstract要約: 我々は、GAMBiTプロジェクト(Guarding Against Malicious Biased Threats)プロジェクトから、大規模な3つのレッドチームサイバーレンジデータセットを提示する。
実験1回あたり19~20人の攻撃者が、シミュレーションされた企業ネットワークで2回の8時間の自爆作戦を行った。
- 参考スコア(独自算出の注目度): 14.016447355165532
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present three large-scale human-subjects red-team cyber range datasets from the Guarding Against Malicious Biased Threats (GAMBiT) project. Across Experiments 1-3 (July 2024-March 2025), 19-20 skilled attackers per experiment conducted two 8-hour days of self-paced operations in a simulated enterprise network (SimSpace Cyber Force Platform) while we captured multi-modal data: self-reports (background, demographics, psychometrics), operational notes, terminal histories, keylogs, network packet captures (PCAP), and NIDS alerts (Suricata). Each participant began from a standardized Kali Linux VM and pursued realistic objectives (e.g., target discovery and data exfiltration) under controlled constraints. Derivative curated logs and labels are included. The combined release supports research on attacker behavior modeling, bias-aware analytics, and method benchmarking. Data are available via IEEE Dataport entries for Experiments 1-3.
- Abstract(参考訳): 我々は、GAMBiTプロジェクト(Guarding Against Malicious Biased Threats)プロジェクトから、大規模な3つのレッドチームサイバーレンジデータセットを提示する。
Across Experiments 1-3 (2024年7月-2025年3月)では,実験1回あたり19~20人の熟練攻撃者が,シミュレーションされた企業ネットワーク(SimSpace Cyber Force Platform)で8時間のセルフパッチ操作を行い,マルチモーダルデータ – セルフレポート(バックグラウンド,人口統計,心理指標),運用ノート,端末履歴,キーログ,ネットワークパケットキャプチャ(PCAP),NIDSアラート(Suricata) – を収集した。
各参加者は、標準化されたKali Linux VMから始まり、コントロールされた制約の下で現実的な目的(例えば、ターゲット発見とデータ抽出)を追求した。
派生的なキュレートされたログとラベルが含まれている。
統合リリースは、アタッカーの振る舞いモデリング、バイアス対応分析、メソッドベンチマークの研究をサポートする。
データはIEEE DataportのExperiment 1-3から入手可能だ。
関連論文リスト
- Data Poisoning Attacks to Locally Differentially Private Range Query Protocols [15.664794320925562]
ローカル微分プライバシー(LDP)は、分散データ収集においてユーザのプライバシを保護するために広く採用されている。
近年の研究では、LDPプロトコルがデータ中毒攻撃に弱いことが判明している。
本稿では LDP 範囲のクエリプロトコルをターゲットとしたデータ中毒攻撃に関する最初の研究について述べる。
論文 参考訳(メタデータ) (2025-03-05T12:40:34Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Malicious Agent Detection for Robust Multi-Agent Collaborative Perception [52.261231738242266]
多エージェント協調(MAC)知覚は、単エージェント認識よりも敵攻撃に対して脆弱である。
MAC知覚に特異的な反応防御であるMADE(Malicious Agent Detection)を提案する。
我々は、ベンチマーク3DデータセットV2X-simとリアルタイムデータセットDAIR-V2Xで包括的な評価を行う。
論文 参考訳(メタデータ) (2023-10-18T11:36:42Z) - A Comprehensive Study of the Robustness for LiDAR-based 3D Object
Detectors against Adversarial Attacks [84.10546708708554]
3Dオブジェクト検出器は、セキュリティクリティカルなタスクにおいてますます重要になっている。
敵の攻撃に対する強固さを理解することが不可欠である。
本稿では,LiDARをベースとした3次元検出器の対角攻撃時のロバスト性評価と解析を行った。
論文 参考訳(メタデータ) (2022-12-20T13:09:58Z) - An Overview of Backdoor Attacks Against Deep Neural Networks and
Possible Defences [33.415612094924654]
本研究の目的は,これまでに提案された攻撃・防衛の多種多様さを概観することである。
バックドア攻撃では、攻撃者はトレーニングデータを破損し、テスト時に誤動作を誘発する。
テストタイムエラーは、適切に作成された入力サンプルに対応するトリガーイベントの存在下でのみ起動される。
論文 参考訳(メタデータ) (2021-11-16T13:06:31Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Cross-ethnicity Face Anti-spoofing Recognition Challenge: A Review [79.49390241265337]
Chalearn Face Anti-Spoofing Detection Challengeは、シングルモーダル(例えば、RGB)とマルチモーダル(例えば、RGB、Depth、赤外線(IR))のトラックで構成されている。
本稿では,その設計,評価プロトコル,結果の概要など,課題の概要について述べる。
論文 参考訳(メタデータ) (2020-04-23T06:43:08Z) - Challenges in Forecasting Malicious Events from Incomplete Data [6.656003516101928]
研究者たちは、外部データと機械学習アルゴリズムを組み合わせて、差し迫ったサイバー攻撃の指標を学習しようと試みている。
しかし、サイバー攻撃が成功したことは、攻撃未遂のごくわずかだ。
本稿では,サイバー攻撃の予測可能性を低減するため,フィルタリングのプロセスについて述べる。
論文 参考訳(メタデータ) (2020-04-06T22:57:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。