論文の概要: UniASM: Binary Code Similarity Detection without Fine-tuning
- arxiv url: http://arxiv.org/abs/2211.01144v3
- Date: Thu, 6 Apr 2023 04:49:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 17:42:33.316462
- Title: UniASM: Binary Code Similarity Detection without Fine-tuning
- Title(参考訳): UniASM: 微調整なしでバイナリコードの類似性検出
- Authors: Yeming Gu, Hui Shu and Fan Hu
- Abstract要約: バイナリ関数の表現を学習するために,UniASMと呼ばれるトランスフォーマーベースのバイナリコード埋め込みモデルを提案する。
既知の脆弱性検索の現実的なタスクでは、UniASMは現在のベースラインをすべて上回っている。
- 参考スコア(独自算出の注目度): 0.8271859911016718
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary code similarity detection (BCSD) is widely used in various binary
analysis tasks such as vulnerability search, malware detection, clone
detection, and patch analysis. Recent studies have shown that the
learning-based binary code embedding models perform better than the traditional
feature-based approaches. In this paper, we propose a novel transformer-based
binary code embedding model named UniASM to learn representations of the binary
functions. We design two new training tasks to make the spatial distribution of
the generated vectors more uniform, which can be used directly in BCSD without
any fine-tuning. In addition, we present a new tokenization approach for binary
functions, which increases the token's semantic information and mitigates the
out-of-vocabulary (OOV) problem. We conduct an in-depth analysis of the factors
affecting model performance through ablation experiments and obtain some new
and valuable findings. The experimental results show that UniASM outperforms
the state-of-the-art (SOTA) approach on the evaluation dataset. The average
scores of Recall@1 on cross-compilers, cross-optimization levels, and
cross-obfuscations are 0.77, 0.72, and 0.72. Besides, in the real-world task of
known vulnerability search, UniASM outperforms all the current baselines.
- Abstract(参考訳): bcsd(binary code similarity detection)は,脆弱性探索やマルウェア検出,クローン検出,パッチ解析など,さまざまなバイナリ解析タスクで広く使用されている。
近年の研究では、学習ベースのバイナリコード埋め込みモデルが従来の機能ベースアプローチよりも優れていることが示されている。
本論文では,UniASMと呼ばれるトランスフォーマーベースのバイナリコード埋め込みモデルを提案し,バイナリ関数の表現を学習する。
生成したベクトルの空間分布をより均一にするため,我々は2つの新しい訓練タスクを設計した。
さらに,二項関数に対する新しいトークン化手法を提案し,トークンの意味情報を増やし,語彙外問題(OOV)を軽減する。
モデル性能に影響する因子をアブレーション実験により詳細に分析し,新しい知見を得た。
実験の結果,UniASMは評価データセット上での最先端(SOTA)アプローチよりも優れていた。
クロスコンパイラ,クロス最適化レベル,クロスファンクションの平均スコアは0.77,0.72,0.72である。
さらに、既知の脆弱性検索の実際のタスクでは、UniASMは現在のベースラインをすべて上回っている。
関連論文リスト
- Binary Code Similarity Detection via Graph Contrastive Learning on Intermediate Representations [52.34030226129628]
バイナリコード類似度検出(BCSD)は、脆弱性検出、マルウェア分析、コードの再利用識別など、多くの分野で重要な役割を果たしている。
本稿では,LLVM-IRと高レベルのセマンティック抽象化を利用して,コンパイル差を緩和するIRBinDiffを提案する。
IRBinDiffは1対1の比較と1対多の検索シナリオにおいて,他の主要なBCSD手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-24T09:09:20Z) - BinSimDB: Benchmark Dataset Construction for Fine-Grained Binary Code Similarity Analysis [6.093226756571566]
我々は、BinSimDBと呼ばれる細粒度のバイナリコード類似性解析のためのベンチマークデータセットを構築した。
具体的には,2つのバイナリコードスニペット間の相違を補うためのBMergeアルゴリズムとBPairアルゴリズムを提案する。
実験の結果、BinSimDBはバイナリコード類似性比較の性能を大幅に改善することが示された。
論文 参考訳(メタデータ) (2024-10-14T05:13:48Z) - Source Code Foundation Models are Transferable Binary Analysis Knowledge Bases [9.422025563792818]
人間指向バイナリリバースエンジニアリング(Human-Oriented Binary Reverse Engineering)は、ソースコードに関連する可読性のあるコンテンツにバイナリコードを持ち上げることを目的としている。
本稿では,バイナリソースエンコーダデコーダモデルと,バイナリ解析のためのブラックボックスLCMを組み込んだ新しいプローブ・アンド・リカバリフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-30T00:17:44Z) - FoC: Figure out the Cryptographic Functions in Stripped Binaries with LLMs [54.27040631527217]
削除されたバイナリの暗号関数を抽出するFoCと呼ばれる新しいフレームワークを提案する。
FoC-BinLLMは、ROUGE-LスコアでChatGPTを14.61%上回った。
FoC-Simは52%高いRecall@1で過去のベストメソッドを上回っている。
論文 参考訳(メタデータ) (2024-03-27T09:45:33Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Network Binarization via Contrastive Learning [16.274341164897827]
バイナリニューラルネットワーク(BNN)を訓練しながら、新しいコントラスト学習フレームワークを構築する。
MIはバイナリとFPのアクティベーション間で共有される情報を計測する指標として導入された。
以上の結果から,本手法は既存の最先端バイナライズ手法の重ね合わせモジュールとして実装可能であることが示唆された。
論文 参考訳(メタデータ) (2022-07-06T21:04:53Z) - Semantic-aware Binary Code Representation with BERT [27.908093567605484]
バグ発見、マルウェア分析、コードクローン検出など、幅広いバイナリ分析アプリケーションでは、バイナリコード上でのコンテキスト意味の回復が必要である。
近年,バイナリのコード表現を自動再構築するために,機械学習に基づくバイナリ解析手法が提案されている。
本稿では,バイナリコードのセマンティックなコード表現を生成するためにBERTを利用するDeepSemanticを提案する。
論文 参考訳(メタデータ) (2021-06-10T03:31:29Z) - Understanding Self-supervised Learning with Dual Deep Networks [74.92916579635336]
本稿では,2組の深層ReLUネットワークを用いたコントラスト型自己教師学習(SSL)手法を理解するための新しい枠組みを提案する。
種々の損失関数を持つSimCLRの各SGD更新において、各層の重みは共分散演算子によって更新されることを示す。
共分散演算子の役割と、そのようなプロセスでどのような特徴が学習されるかをさらに研究するために、我々は、階層的潜在木モデル(HLTM)を用いて、データ生成および増大過程をモデル化する。
論文 参考訳(メタデータ) (2020-10-01T17:51:49Z) - Pairwise Supervised Hashing with Bernoulli Variational Auto-Encoder and
Self-Control Gradient Estimator [62.26981903551382]
バイナリ潜在変数を持つ変分自動エンコーダ(VAE)は、文書検索の精度の観点から最先端のパフォーマンスを提供する。
本稿では、クラス内類似度とクラス間類似度に報いるために、個別潜伏型VAEを用いたペアワイズ損失関数を提案する。
この新しいセマンティックハッシュフレームワークは、最先端技術よりも優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-05-21T06:11:33Z) - One-Shot Object Detection without Fine-Tuning [62.39210447209698]
本稿では,第1ステージのMatching-FCOSネットワークと第2ステージのStructure-Aware Relation Moduleからなる2段階モデルを提案する。
また,検出性能を効果的に向上する新たなトレーニング戦略を提案する。
提案手法は,複数のデータセット上で一貫した最先端のワンショット性能を上回る。
論文 参考訳(メタデータ) (2020-05-08T01:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。