論文の概要: The Attribution Story of WhisperGate: An Academic Perspective
- arxiv url: http://arxiv.org/abs/2510.18484v1
- Date: Tue, 21 Oct 2025 10:04:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.422949
- Title: The Attribution Story of WhisperGate: An Academic Perspective
- Title(参考訳): WhisperGateの属性ストーリー:学術的視点
- Authors: Oleksandr Adamov, Anders Carlsson,
- Abstract要約: 本稿は、ロシア軍情報部(GRU)が実施し、ウクライナ政府を標的とした2022年1月のWhisperGateサイバー活動に対するケーススタディアプローチを適用した。
この研究は、脅威アクター識別子の詳細なレビューを提供し、主要なサイバーセキュリティベンダーが使用し、Microsoft、ESET、CrowdStrikeの研究者による進化した属性に焦点を当てている。
- 参考スコア(独自算出の注目度): 15.27197933077011
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper explores the challenges of cyberattack attribution, specifically APTs, applying the case study approach for the WhisperGate cyber operation of January 2022 executed by the Russian military intelligence service (GRU) and targeting Ukrainian government entities. The study provides a detailed review of the threat actor identifiers and taxonomies used by leading cybersecurity vendors, focusing on the evolving attribution from Microsoft, ESET, and CrowdStrike researchers. Once the attribution to Ember Bear (GRU Unit 29155) is established through technical and intelligence reports, we use both traditional machine learning classifiers and a large language model (ChatGPT) to analyze the indicators of compromise (IoCs), tactics, and techniques to statistically and semantically attribute the WhisperGate attack. Our findings reveal overlapping indicators with the Sandworm group (GRU Unit 74455) but also strong evidence pointing to Ember Bear, especially when the LLM is fine-tuned or contextually augmented with additional intelligence. Thus, showing how AI/GenAI with proper fine-tuning are capable of solving the attribution challenge.
- Abstract(参考訳): 本稿では,ロシア軍情報部(GRU)が実施した2022年1月のWhisperGateサイバー活動のケーススタディアプローチを適用し,ウクライナ政府を標的としたサイバー攻撃帰属の課題について考察する。
この研究は、主要なサイバーセキュリティベンダーが使用する脅威アクター識別子と分類の詳細なレビューを提供し、Microsoft、ESET、CrowdStrikeの研究者による進化した属性に焦点を当てている。
技術的・知的な報告によってEmber Bear(GRU Unit 29155)への帰属が確立されると、従来の機械学習分類器と大きな言語モデル(ChatGPT)の両方を用いて妥協の指標(IoC)、戦術、およびWhisperGate攻撃を統計的に意味論的に評価する技術を分析する。
以上の結果から,Sandworm group (GRU Unit 74455) と重複する指標がみられたが,特にLLMが微調整されたり,文脈的に強化された場合,Ember Bear が示唆される強い証拠も示された。
このように、適切な微調整を施したAI/GenAIが、帰属的課題を解決できることを示す。
関連論文リスト
- Cyber Threat Hunting: Non-Parametric Mining of Attack Patterns from Cyber Threat Intelligence for Precise Threats Attribution [0.0]
我々は、Cyber-Attack Pattern Explorer(CAPE)という視覚対話型分析ツールを備えた機械学習ベースのアプローチを提案する。
提案システムでは,サイバー脅威情報文書中の攻撃パターンを識別するためのデータセットを作成するために,非パラメトリックマイニング手法を提案する。
抽出したデータセットは、各アクターに対するサイバー脅威の帰属を可能にする、提案された機械学習アルゴリズムのトレーニングに使用される。
論文 参考訳(メタデータ) (2025-09-15T06:15:22Z) - Enhancing IoMT Security with Explainable Machine Learning: A Case Study on the CICIOMT2024 Dataset [0.0]
説明可能な人工知能(XAI)は、AIモデルの透明性と解釈可能性を高める。
サイバーセキュリティ、特にIoMT(Internet of Medical Things)では、AIによる脅威検出のブラックボックスの性質が大きな課題となっている。
本研究は,IoMT環境におけるサイバー攻撃分類のための2つのアンサンブル学習手法,バッグングとブースティングを比較した。
論文 参考訳(メタデータ) (2025-09-10T09:17:46Z) - Security Challenges in AI Agent Deployment: Insights from a Large Scale Public Competition [101.86739402748995]
44の現実的なデプロイメントシナリオを対象とした,22のフロンティアAIエージェントを対象にしています。
Agent Red Teamingベンチマークを構築し、19の最先端モデルで評価します。
私たちの発見は、今日のAIエージェントの重要かつ永続的な脆弱性を浮き彫りにしたものです。
論文 参考訳(メタデータ) (2025-07-28T05:13:04Z) - AURA: A Multi-Agent Intelligence Framework for Knowledge-Enhanced Cyber Threat Attribution [3.6586145148601594]
AURA(Attribution Using Retrieval-Augmented Agents)は、APT属性の自動化と解釈のための知識強化フレームワークである。
AURAはTactics, Techniques, and procedures (TTPs)、Indicators of Compromise (IoCs)、マルウェアの詳細、敵対ツール、時間情報など様々な脅威データを取り込みます。
論文 参考訳(メタデータ) (2025-06-11T21:00:51Z) - Illusions of Relevance: Using Content Injection Attacks to Deceive Retrievers, Rerankers, and LLM Judges [52.96987928118327]
検索,リランカー,大型言語モデル(LLM)の埋め込みモデルは,コンテンツインジェクション攻撃に対して脆弱であることがわかった。
主な脅威は,(1) 意味不明な内容や有害な内容の挿入,(2) 関連性を高めるために,問合せ全体あるいはキークエリ用語の挿入,の2つである。
本研究は, 注射内容の配置や関連物質と非関連物質とのバランスなど, 攻撃の成功に影響を与える要因を系統的に検討した。
論文 参考訳(メタデータ) (2025-01-30T18:02:15Z) - KGV: Integrating Large Language Models with Knowledge Graphs for Cyber Threat Intelligence Credibility Assessment [38.312774244521]
サイバー脅威インテリジェンス(サイバー脅威インテリジェンス、CTI)は、高度で組織化され、兵器化されたサイバー攻撃を防ぐ重要なツールである。
本稿では,大規模言語モデル (LLM) と単純な構造化知識グラフ (KG) を統合し,CTIの信頼性自動評価を行う最初のフレームワークである知識グラフベース検証(KGV)を提案する。
実験の結果,我々のKGVはCTI-200データセット上で最先端の事実推論手法より優れており,F1は5.7%向上していることがわかった。
論文 参考訳(メタデータ) (2024-08-15T11:32:46Z) - Artificial Intelligence as the New Hacker: Developing Agents for Offensive Security [0.0]
本稿では,人工知能(AI)の攻撃的サイバーセキュリティへの統合について検討する。
サイバー攻撃をシミュレートし実行するために設計された、自律的なAIエージェントであるReaperAIを開発している。
ReaperAIは、セキュリティ脆弱性を自律的に識別し、悪用し、分析する可能性を実証する。
論文 参考訳(メタデータ) (2024-05-09T18:15:12Z) - On the Security Risks of Knowledge Graph Reasoning [71.64027889145261]
我々は、敵の目標、知識、攻撃ベクトルに応じて、KGRに対するセキュリティ脅威を体系化する。
我々は、このような脅威をインスタンス化する新しいタイプの攻撃であるROARを提示する。
ROARに対する潜在的な対策として,潜在的に有毒な知識のフィルタリングや,対向的な拡張クエリによるトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-05-03T18:47:42Z) - Illusory Attacks: Information-Theoretic Detectability Matters in Adversarial Attacks [76.35478518372692]
エプシロン・イリューソリー(epsilon-illusory)は、シーケンシャルな意思決定者に対する敵対的攻撃の新たな形態である。
既存の攻撃と比較して,エプシロン・イリューソリーの自動検出は極めて困難である。
以上の結果から, より優れた異常検知器, 効果的なハードウェアおよびシステムレベルの防御の必要性が示唆された。
論文 参考訳(メタデータ) (2022-07-20T19:49:09Z) - The Threat of Offensive AI to Organizations [52.011307264694665]
この調査は、組織に対する攻撃的なAIの脅威を調査する。
まず、AIが敵の方法、戦略、目標、および全体的な攻撃モデルをどのように変えるかについて議論する。
そして、文献レビューを通じて、敵が攻撃を強化するために使用できる33の攻撃的AI能力を特定します。
論文 参考訳(メタデータ) (2021-06-30T01:03:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。