論文の概要: DeepC2: AI-powered Covert Command and Control on OSNs
- arxiv url: http://arxiv.org/abs/2009.07707v7
- Date: Thu, 30 Jun 2022 13:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:42:02.627801
- Title: DeepC2: AI-powered Covert Command and Control on OSNs
- Title(参考訳): DeepC2: AIによるOSNのカバートコマンドとコントロール
- Authors: Zhi Wang, Chaoge Liu, Xiang Cui, Jie Yin, Jiaxi Liu, Di Wu, Qixu Liu
- Abstract要約: コマンド・アンド・コントロール(C&C)は攻撃において重要である。
一部の攻撃者はC&Cタスクでオンラインソーシャルネットワーク(OSN)を使用している。
我々はこれらの問題を解決するために,OSN上のAIによるC&CであるDeepC2を提案する。
- 参考スコア(独自算出の注目度): 9.151007055053793
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Command and control (C&C) is important in an attack. It transfers commands
from the attacker to the malware in the compromised hosts. Currently, some
attackers use online social networks (OSNs) in C&C tasks. There are two main
problems in the C&C on OSNs. First, the process for the malware to find the
attacker is reversible. If the malware sample is analyzed by the defender, the
attacker would be exposed before publishing the commands. Second, the commands
in plain or encrypted form are regarded as abnormal contents by OSNs, which
would raise anomalies and trigger restrictions on the attacker. The defender
can limit the attacker once it is exposed. In this work, we propose DeepC2, an
AI-powered C&C on OSNs, to solve these problems. For the reversible
hard-coding, the malware finds the attacker using a neural network model. The
attacker's avatars are converted into a batch of feature vectors, and the
defender cannot recover the avatars in advance using the model and the feature
vectors. To solve the abnormal contents on OSNs, hash collision and text data
augmentation are used to embed commands into normal contents. The experiment on
Twitter shows that command-embedded tweets can be generated efficiently. The
malware can find the attacker covertly on OSNs. Security analysis shows it is
hard to recover the attacker's identifiers in advance.
- Abstract(参考訳): コマンド・アンド・コントロール(C&C)は攻撃において重要である。
攻撃者から侵入されたホストのマルウェアにコマンドを転送する。
現在、攻撃者はC&Cタスクでオンラインソーシャルネットワーク(OSN)を使用している。
OSNのC&Cには2つの大きな問題がある。
まず、マルウェアが攻撃者を見つけるプロセスは可逆的です。
マルウェアサンプルがディフェンダーによって分析されると、攻撃者はコマンドを公開する前に暴露される。
第二に、平易または暗号化された形式のコマンドはOSNによって異常な内容と見なされ、異常を発生させ、攻撃者に制限を与える。
ディフェンダーは、攻撃者が暴露されると制限することができる。
本稿では,OSN上のAIによるC&CであるDeepC2を提案する。
可逆的なハードコーディングでは、マルウェアはニューラルネットワークモデルを使用して攻撃者を見つける。
攻撃者のアバターは特徴ベクトルのバッチに変換され、ディフェンダーはモデルと特徴ベクトルを使って事前にアバターを復元することはできない。
OSNの異常な内容を解決するため、通常の内容にコマンドを埋め込むためにハッシュ衝突とテキストデータ拡張を用いる。
Twitterでのこの実験は、コマンド埋め込みツイートを効率的に生成できることを示している。
マルウェアはOSNに隠された攻撃者を見つけることができる。
セキュリティ分析によると、攻撃者の識別子を事前に回復することは困難である。
関連論文リスト
- Hallucinating AI Hijacking Attack: Large Language Models and Malicious Code Recommenders [0.0]
研究者は、人気のあるコードリポジトリで悪意のあるコードに対して、コピーコードや幻覚されたAIレコメンデーションを導入するための敵の可能性を構築し、評価する。
OpenAI, Google, Anthropicの基本的な大規模言語モデル(LLM)は、有害な振る舞いと有害な文字列の両方に対して保護する。
我々は、この攻撃を、以前の文脈シフトに関する研究と比較し、マルウェア文学における「土地から逃れる」攻撃の新たなバージョンとして攻撃面を対比した。
論文 参考訳(メタデータ) (2024-10-09T01:36:25Z) - Exploiting the Vulnerability of Large Language Models via Defense-Aware Architectural Backdoor [0.24335447922683692]
基盤となるモデルアーキテクチャ内に隠蔽する新しいタイプのバックドアアタックを導入します。
モデルアーキテクチャレイヤのアドオンモジュールは、入力トリガトークンの存在を検出し、レイヤの重みを変更することができる。
我々は,5つの大言語データセットの2つのモデルアーキテクチャ設定を用いて,攻撃方法を評価するための広範囲な実験を行った。
論文 参考訳(メタデータ) (2024-09-03T14:54:16Z) - Not All Prompts Are Secure: A Switchable Backdoor Attack Against Pre-trained Vision Transformers [51.0477382050976]
この作業でスイッチトークンと呼ばれる追加のプロンプトトークンは、バックドアモードをオンにすることができ、良心的なモデルをバックドアモードに変換することができる。
事前訓練されたモデルを攻撃するため、SWARMと呼ばれる攻撃はトリガを学習し、スイッチトークンを含むトークンをプロンプトする。
多様な視覚認識タスクの実験は、切り替え可能なバックドア攻撃の成功を確認し、95%以上の攻撃成功率を達成した。
論文 参考訳(メタデータ) (2024-05-17T08:19:48Z) - Adversarial Deep Reinforcement Learning for Cyber Security in Software
Defined Networks [0.0]
本稿では、より堅牢なエージェントの訓練に、自律的な攻撃的アプローチを深層強化学習(DRL)に活用することの影響に焦点を当てる。
2つのアルゴリズム、Double Deep Q-Networks(DDQN)とNeural Episodic Control to Deep Q-Network(NEC2DQNまたはN2D)を比較した。
論文 参考訳(メタデータ) (2023-08-09T12:16:10Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Textual Backdoor Attacks Can Be More Harmful via Two Simple Tricks [58.0225587881455]
本稿では,既存のテキストバックドア攻撃をより有害にするための2つの簡単な手法を見出す。
最初のトリックは、被害者モデルのトレーニング中に毒や清潔なデータを識別するための追加のトレーニングタスクを追加することです。
2つ目は、汚染データに対応する元のクリーンデータを削除するのではなく、すべてのクリーンなトレーニングデータを使用することである。
論文 参考訳(メタデータ) (2021-10-15T17:58:46Z) - Sleeper Agent: Scalable Hidden Trigger Backdoors for Neural Networks
Trained from Scratch [99.90716010490625]
バックドア攻撃者は、トレーニングデータを改ざんして、そのデータに基づいてトレーニングされたモデルに脆弱性を埋め込む。
この脆弱性は、モデル入力に"トリガー"を配置することで、推論時にアクティベートされる。
我々は,工芸過程において,勾配マッチング,データ選択,ターゲットモデル再トレーニングを利用した新しい隠れトリガ攻撃,Sleeper Agentを開発した。
論文 参考訳(メタデータ) (2021-06-16T17:09:55Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Deep Feature Space Trojan Attack of Neural Networks by Controlled
Detoxification [21.631699720855995]
トロイの木馬攻撃(Trojan attack)は、ディープニューラルネットワークに対する敵攻撃の一種である。
5つの特徴を持つ新しい深部特徴空間トロイの木馬攻撃を提案する。
論文 参考訳(メタデータ) (2020-12-21T09:46:12Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。