論文の概要: On the Lack of Robustness of Binary Function Similarity Systems
- arxiv url: http://arxiv.org/abs/2412.04163v1
- Date: Thu, 05 Dec 2024 13:54:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-06 14:41:20.791265
- Title: On the Lack of Robustness of Binary Function Similarity Systems
- Title(参考訳): 二項関数類似系のロバスト性に就て
- Authors: Gianluca Capozzi, Tong Tang, Jie Wan, Ziqi Yang, Daniele Cono D'Elia, Giuseppe Antonio Di Luna, Lorenzo Cavallaro, Leonardo Querzoni,
- Abstract要約: 我々は、最先端の機械学習モデルの敵攻撃に対するレジリエンスを評価する。
我々は、この攻撃が全てのモデルの妥協に成功し、問題設定に応じて57.06%と95.81%の平均的な攻撃成功率を達成することを実証した。
- 参考スコア(独自算出の注目度): 13.842698930725625
- License:
- Abstract: Binary function similarity, which often relies on learning-based algorithms to identify what functions in a pool are most similar to a given query function, is a sought-after topic in different communities, including machine learning, software engineering, and security. Its importance stems from the impact it has in facilitating several crucial tasks, from reverse engineering and malware analysis to automated vulnerability detection. Whereas recent work cast light around performance on this long-studied problem, the research landscape remains largely lackluster in understanding the resiliency of the state-of-the-art machine learning models against adversarial attacks. As security requires to reason about adversaries, in this work we assess the robustness of such models through a simple yet effective black-box greedy attack, which modifies the topology and the content of the control flow of the attacked functions. We demonstrate that this attack is successful in compromising all the models, achieving average attack success rates of 57.06% and 95.81% depending on the problem settings (targeted and untargeted attacks). Our findings are insightful: top performance on clean data does not necessarily relate to top robustness properties, which explicitly highlights performance-robustness trade-offs one should consider when deploying such models, calling for further research.
- Abstract(参考訳): プール内のどの関数が与えられたクエリ関数に最もよく似ているかを特定するために、しばしば学習ベースのアルゴリズムに依存するバイナリ関数の類似性は、機械学習、ソフトウェアエンジニアリング、セキュリティなど、さまざまなコミュニティで追求されているトピックである。
その重要性は、リバースエンジニアリングやマルウェア分析から自動脆弱性検出まで、いくつかの重要なタスクを促進することによる。
最近の研究は、この長期にわたる問題のパフォーマンスに光を当てているが、現在の最先端の機械学習モデルの敵の攻撃に対するレジリエンスを理解する上で、研究の状況はほとんど変わっていない。
本研究では,攻撃関数のトポロジと制御フローの内容を変化させるシンプルなブラックボックスグレディアタックによって,このようなモデルのロバスト性を評価する。
我々は、この攻撃が全てのモデルの妥協に成功し、問題設定(ターゲットと未ターゲットの攻撃)に応じて57.06%と95.81%の平均攻撃成功率を達成することを実証した。
クリーンデータにおけるトップパフォーマンスは、必ずしもトップロバスト性に関係せず、このようなモデルをデプロイする際に考慮すべきパフォーマンス-ロバスト性トレードオフを明確に強調し、さらなる研究を要求します。
関連論文リスト
- Efficient Data-Free Model Stealing with Label Diversity [22.8804507954023]
マシンラーニング・アズ・ア・サービス(ML)は、ユーザがAPI形式で機械学習モデルに問い合わせることを可能にし、価値あるデータに基づいてトレーニングされた高性能モデルによるメリットを享受する機会を提供する。
このインターフェースは機械学習ベースのアプリケーションの増殖を促進する一方で、モデル盗難攻撃のための攻撃面を導入している。
既存のモデル盗難攻撃は、有効性を保ちながら、攻撃想定をデータフリー設定に緩和した。
本稿では,多様性の観点からモデルを盗む問題を再考し,生成したデータサンプルをすべてのクラスに多様性を持たせることが重要なポイントであることを実証する。
論文 参考訳(メタデータ) (2024-03-29T18:52:33Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Sparse and Transferable Universal Singular Vectors Attack [5.498495800909073]
そこで本研究では, よりスムーズなホワイトボックス対逆攻撃を提案する。
我々のアプローチは、ジャコビアン行列の隠れた層の$(p,q)$-singularベクトルにスパーシティを提供するトラルキャットパワーに基づいている。
本研究は,攻撃をスパースする最先端モデルの脆弱性を実証し,堅牢な機械学習システムの開発の重要性を強調した。
論文 参考訳(メタデータ) (2024-01-25T09:21:29Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Improving robustness of jet tagging algorithms with adversarial
training: exploring the loss surface [0.0]
入力特徴のわずかな歪みの下で、モデルがどれだけうまく機能するかを調べるために、モデルのロバスト性について検討する。
特に多くの(低レベルの)入力を含むタスクでは、ディープニューラルネットワークの適用が新たな課題をもたらす。
対応する防御戦略、敵の訓練は、高い性能を維持しながら堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-03-25T16:23:27Z) - Improving robustness of jet tagging algorithms with adversarial training [56.79800815519762]
本研究では,フレーバータグ付けアルゴリズムの脆弱性について,敵攻撃による検証を行った。
シミュレーション攻撃の影響を緩和する対人訓練戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T19:57:19Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z) - Clustering Effect of (Linearized) Adversarial Robust Models [60.25668525218051]
本稿では, 敵の強靭性に対する新たな理解を提案し, ドメイン適応や頑健性向上といったタスクに適用する。
提案したクラスタリング戦略の合理性と優越性を実験的に評価した。
論文 参考訳(メタデータ) (2021-11-25T05:51:03Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。