論文の概要: Adversarial Attacks against Binary Similarity Systems
- arxiv url: http://arxiv.org/abs/2303.11143v1
- Date: Mon, 20 Mar 2023 14:22:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-21 15:09:42.580085
- Title: Adversarial Attacks against Binary Similarity Systems
- Title(参考訳): 二元類似性システムに対する逆攻撃
- Authors: Gianluca Capozzi, Daniele Cono D'Elia, Giuseppe Antonio Di Luna,
Leonardo Querzoni
- Abstract要約: 二項類似モデルの逆例に対するレジリエンスについて検討する。
我々は2つのブラックボックスの欲求攻撃に対して2つの類似性に対する最先端の3つのソリューションを広範囲に検証した。
- 参考スコア(独自算出の注目度): 7.684947521482632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, binary analysis gained traction as a fundamental approach to
inspect software and guarantee its security. Due to the exponential increase of
devices running software, much research is now moving towards new autonomous
solutions based on deep learning models, as they have been showing
state-of-the-art performances in solving binary analysis problems. One of the
hot topics in this context is binary similarity, which consists in determining
if two functions in assembly code are compiled from the same source code.
However, it is unclear how deep learning models for binary similarity behave in
an adversarial context. In this paper, we study the resilience of binary
similarity models against adversarial examples, showing that they are
susceptible to both targeted and untargeted attacks (w.r.t. similarity goals)
performed by black-box and white-box attackers. In more detail, we extensively
test three current state-of-the-art solutions for binary similarity against two
black-box greedy attacks, including a new technique that we call Spatial
Greedy, and one white-box attack in which we repurpose a gradient-guided
strategy used in attacks to image classifiers.
- Abstract(参考訳): 近年、バイナリ分析はソフトウェアを検査し、セキュリティを保証するための基本的なアプローチとして注目を集めている。
ソフトウェアを実行しているデバイスが指数関数的に増えているため、多くの研究がディープラーニングモデルに基づく新しい自律的ソリューションに向かって進んでいる。
この文脈でホットな話題の1つはバイナリ類似性であり、アセンブリコードの2つの関数が同じソースコードからコンパイルされているかどうかを判断する。
しかし、二項類似性の深層学習モデルが対角的文脈でどのように振る舞うかは明らかでない。
本稿では,ブラックボックス攻撃者やホワイトボックス攻撃者による標的攻撃(w.r.t.類似度目標)と非目標攻撃(w.r.t.類似度目標)の両方の影響を受けやすいことを示す。
より詳しくは、2つのブラックボックスグリーディ攻撃に対する2値類似性のための3つの最先端ソリューションを広範囲にテストし、空間グリーディと呼ばれる新しいテクニックと、画像分類器への攻撃に使用される勾配誘導戦略を再利用するホワイトボックス攻撃を試した。
関連論文リスト
- An Adversarial Approach to Evaluating the Robustness of Event
Identification Models [14.456571495691561]
本稿では,事象分類の特徴を抽出する物理に基づくモーダル分解法について考察する。
得られた分類器は、その堅牢性を評価するために、逆アルゴリズムに対してテストされる。
論文 参考訳(メタデータ) (2024-02-19T18:11:37Z) - Deviations in Representations Induced by Adversarial Attacks [0.0]
研究によると、ディープラーニングモデルは敵の攻撃に弱い。
この発見は研究の新たな方向性をもたらし、脆弱性のあるネットワークを攻撃して防御するためにアルゴリズムが開発された。
本稿では,敵攻撃によって引き起こされる表現の偏差を計測し,解析する手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T17:40:08Z) - UniASM: Binary Code Similarity Detection without Fine-tuning [0.8271859911016718]
バイナリ関数の表現を学習するために,UniASMと呼ばれるトランスフォーマーベースのバイナリコード埋め込みモデルを提案する。
既知の脆弱性検索の現実的なタスクでは、UniASMは現在のベースラインをすべて上回っている。
論文 参考訳(メタデータ) (2022-10-28T14:04:57Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z) - Cross-Modal Transferable Adversarial Attacks from Images to Videos [82.0745476838865]
近年の研究では、一方のホワイトボックスモデルで手作りされた敵の例は、他のブラックボックスモデルを攻撃するために使用できることが示されている。
本稿では,イメージ・トゥ・ビデオ(I2V)攻撃と呼ばれる,シンプルだが効果的なクロスモーダル・アタック手法を提案する。
I2Vは、事前訓練された画像モデルの特徴と良質な例とのコサイン類似性を最小化して、対向フレームを生成する。
論文 参考訳(メタデータ) (2021-12-10T08:19:03Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Identification of Attack-Specific Signatures in Adversarial Examples [62.17639067715379]
異なる攻撃アルゴリズムは, その効果だけでなく, 被害者の質的な影響も示している。
以上の結果から, 予測的対人攻撃は, 模擬モデルにおける成功率だけでなく, 被害者に対するより深い下流効果によって比較されるべきであることが示唆された。
論文 参考訳(メタデータ) (2021-10-13T15:40:48Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - Adversarial EXEmples: A Survey and Experimental Evaluation of Practical
Attacks on Machine Learning for Windows Malware Detection [67.53296659361598]
EXEmplesは、比較的少ない入力バイトを摂動することで、機械学習に基づく検出をバイパスすることができる。
我々は、機械学習モデルに対する過去の攻撃を包含し、一般化するだけでなく、3つの新たな攻撃を含む統一フレームワークを開発する。
これらの攻撃はFull DOS、Extended、Shiftと呼ばれ、DOSヘッダをそれぞれ操作し、拡張し、第1セクションの内容を変更することで、敵のペイロードを注入する。
論文 参考訳(メタデータ) (2020-08-17T07:16:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。