論文の概要: Best-Effort Adversarial Approximation of Black-Box Malware Classifiers
- arxiv url: http://arxiv.org/abs/2006.15725v1
- Date: Sun, 28 Jun 2020 21:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 03:08:39.791150
- Title: Best-Effort Adversarial Approximation of Black-Box Malware Classifiers
- Title(参考訳): ブラックボックスマルウェア分類器のベストエフォート対応近似
- Authors: Abdullah Ali, Birhanu Eshete
- Abstract要約: ブラックボックスモデルを盗もうとする敵は、予測APIを介して繰り返しモデルをクエリして、決定境界を近似する関数を学ぶ。
そこで本研究では,ブラックボックスマルウェア分類器の最適逆近似を最も困難な環境で検討する。
我々は,ブラックボックスのマルウェア分類器を局所的に訓練することで,特徴表現マッピングとクロスドメイン転送性を利用して近似する。
- 参考スコア(独自算出の注目度): 9.301268830193072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An adversary who aims to steal a black-box model repeatedly queries the model
via a prediction API to learn a function that approximates its decision
boundary. Adversarial approximation is non-trivial because of the enormous
combinations of model architectures, parameters, and features to explore. In
this context, the adversary resorts to a best-effort strategy that yields the
closest approximation. This paper explores best-effort adversarial
approximation of a black-box malware classifier in the most challenging
setting, where the adversary's knowledge is limited to a prediction label for a
given input. Beginning with a limited input set for the black-box classifier,
we leverage feature representation mapping and cross-domain transferability to
approximate a black-box malware classifier by locally training a substitute.
Our approach approximates the target model with different feature types for the
target and the substitute model while also using non-overlapping data for
training the target, training the substitute, and the comparison of the two. We
evaluate the effectiveness of our approach against two black-box classifiers
trained on Windows Portable Executables (PEs). Against a Convolutional Neural
Network (CNN) trained on raw byte sequences of PEs, our approach achieves a 92%
accurate substitute (trained on pixel representations of PEs), and nearly 90%
prediction agreement between the target and the substitute model. Against a
97.8% accurate gradient boosted decision tree trained on static PE features,
our 91% accurate substitute agrees with the black-box on 90% of predictions,
suggesting the strength of our purely black-box approximation.
- Abstract(参考訳): ブラックボックスモデルを盗もうとする敵は、予測apiを通じてモデルを繰り返しクエリし、その決定境界に近似する関数を学ぶ。
モデルアーキテクチャ、パラメータ、探索すべき特徴の膨大な組み合わせのため、逆近似は自明ではない。
この文脈では、敵は最も近い近似をもたらす最善戦略に頼っている。
本稿では,ブラックボックスマルウェア分類器の最も困難な状況下での最適対人近似について検討し,敵の知識が与えられた入力の予測ラベルに限られていることを示す。
ブラックボックス分類器の限られた入力セットから始めると、機能表現マッピングとクロスドメイン転送可能性を利用してブラックボックスマルウェア分類器を局所的に訓練することで近似する。
提案手法は,対象モデルと代替モデルに異なる特徴型を持つ対象モデルに近似し,非重複データを用いて対象を訓練し,代用を訓練し,両者の比較を行う。
Windows Portable Executables (PE) でトレーニングした2つのブラックボックス分類器に対するアプローチの有効性を評価する。
PEの生バイト配列に基づいて訓練された畳み込みニューラルネットワーク(CNN)に対して,PEの画素表現に基づいて訓練された92%の精度の置換を実現し,ターゲットと代替モデルの約90%の予測一致を実現した。
静的PEの特徴を訓練した決定木を97.8%の精度で増加させたが、91%の精度で予測の90%でブラックボックスと一致し、純粋にブラックボックス近似の強さが示唆された。
関連論文リスト
- Model Inversion Attacks Through Target-Specific Conditional Diffusion Models [54.69008212790426]
モデル反転攻撃(MIA)は、ターゲット分類器のトレーニングセットからプライベートイメージを再構築することを目的としており、それによってAIアプリケーションにおけるプライバシー上の懸念が高まる。
従来のGANベースのMIAは、GANの固有の欠陥と潜伏空間における最適化の偏りにより、劣った遺伝子的忠実度に悩まされる傾向にある。
これらの問題を緩和するために拡散モデル反転(Diff-MI)攻撃を提案する。
論文 参考訳(メタデータ) (2024-07-16T06:38:49Z) - Prediction Exposes Your Face: Black-box Model Inversion via Prediction Alignment [24.049615035939237]
モデル反転(MI)攻撃は、その出力から対象モデルのプライベートトレーニングデータを再構成する。
ブラックボックスMI攻撃のための予測画像P2I手法を提案する。
本手法は,攻撃精度を8.5%向上し,データセットCelebAのクエリ数を99%削減する。
論文 参考訳(メタデータ) (2024-07-11T01:58:35Z) - Efficient Black-box Adversarial Attacks via Bayesian Optimization Guided by a Function Prior [36.101904669291436]
本稿では,入力クエリの出力フィードバックのみを用いて,ブラックボックスモデルに対するサンプル生成を目的としたブラックボックス逆攻撃について検討する。
ブラックボックス攻撃前の大域関数として代理モデルを利用する事前誘導ベイズ最適化(P-BO)アルゴリズムを提案する。
後悔境界に関する理論的解析は、P-BOの性能が悪影響を受けていることを示唆している。
論文 参考訳(メタデータ) (2024-05-29T14:05:16Z) - Breaking the Black-Box: Confidence-Guided Model Inversion Attack for
Distribution Shift [0.46040036610482665]
モデル反転攻撃(MIA)は、ターゲットクラスの特性を反映した合成画像を生成することにより、ターゲット分類器のプライベートトレーニングデータを推論しようとする。
これまでの研究はターゲットモデルへの完全なアクセスに依存してきたが、現実のシナリオでは実用的ではない。
本稿では,CG-MIと呼ばれるtextbfConfidence-textbfGuided textbfModel textbfInversion攻撃法を提案する。
論文 参考訳(メタデータ) (2024-02-28T03:47:17Z) - Black-Box Tuning of Vision-Language Models with Effective Gradient
Approximation [71.21346469382821]
ブラックボックスモデルに対するテキストプロンプト最適化と出力特徴適応のための協調ブラックボックスチューニング(CBBT)を導入する。
CBBTは11のダウンストリームベンチマークで広範囲に評価され、既存のブラックボックスVL適応法と比較して顕著に改善されている。
論文 参考訳(メタデータ) (2023-12-26T06:31:28Z) - Curriculum Guided Domain Adaptation in the Dark [0.0]
ダークのドメイン適応は、ソースデータやソースモデルパラメータにアクセスせずに、ブラックボックスのソーストレーニングされたモデルをラベルなしのターゲットドメインに適応することを目的としている。
本稿では,対象モデルを段階的に学習するためのカリキュラム指導型適応手法であるCABBについて述べる。
本手法は,二分岐ネットワークの協調学習を利用して,確認バイアスによる誤差の蓄積を抑制する。
論文 参考訳(メタデータ) (2023-08-02T05:47:56Z) - Query Efficient Cross-Dataset Transferable Black-Box Attack on Action
Recognition [99.29804193431823]
ブラックボックスの敵攻撃は、行動認識システムに現実的な脅威をもたらす。
本稿では,摂動を発生させることにより,これらの欠点に対処する新たな行動認識攻撃を提案する。
提案手法は,最先端のクエリベースおよび転送ベース攻撃と比較して,8%,12%の偽装率を達成する。
論文 参考訳(メタデータ) (2022-11-23T17:47:49Z) - Query-Efficient Black-box Adversarial Attacks Guided by a Transfer-based
Prior [50.393092185611536]
対象モデルの勾配にアクセスできることなく、敵が敵の例を作らなければならないブラックボックスの敵設定を考える。
従来の手法では、代用ホワイトボックスモデルの転送勾配を用いたり、モデルクエリのフィードバックに基づいて真の勾配を近似しようとした。
偏りサンプリングと勾配平均化に基づく2つの事前誘導型ランダム勾配フリー(PRGF)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-03-13T04:06:27Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Perturbing Across the Feature Hierarchy to Improve Standard and Strict
Blackbox Attack Transferability [100.91186458516941]
我々は、ディープニューラルネットワーク(DNN)画像分類器の領域におけるブラックボックス転送に基づく敵攻撃脅威モデルを検討する。
我々は,多層摂動が可能なフレキシブルアタックフレームワークを設計し,最先端のターゲット転送性能を示す。
提案手法が既存の攻撃戦略より優れている理由を解析し,ブラックボックスモデルに対する限られたクエリが許された場合に,メソッドの拡張を示す。
論文 参考訳(メタデータ) (2020-04-29T16:00:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。