論文の概要: What Makes the Best Decomposition? Investigating Binary Decomposition Under FCG Variance
- arxiv url: http://arxiv.org/abs/2506.19425v1
- Date: Tue, 24 Jun 2025 08:43:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.559168
- Title: What Makes the Best Decomposition? Investigating Binary Decomposition Under FCG Variance
- Title(参考訳): ベスト分解とは何か : FCG変動下における二元分解の考察
- Authors: Ang Jia, He Jiang, Zhilei Ren, Xiaochen Li, Ming Fan, Ting Liu,
- Abstract要約: 様々なコンパイル設定でコンパイルされた関数呼び出しグラフの分散に関する最初の系統的研究を行う。
FCGのサイズは劇的に変化しますが、FCGは3種類のマッピングでリンクされています。
本稿では, 最適分解を同定し, 既存の分解処理と最適分解を比較する方法を提案する。
- 参考スコア(独自算出の注目度): 11.950334662727848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Binary decomposition, which decomposes binary files into modules, plays a critical role in binary reuse detection. Existing binary decomposition works either apply anchor-based methods by extending anchor functions to generate modules, or apply clustering-based methods by using clustering algorithms to group binary functions, which all rely on that reused code shares similar function call relationships. However, we find that function call graphs (FCGs) vary a lot when using different compilation settings, especially with diverse function inlining decisions. In this work, we conduct the first systematic empirical study on the variance of FCGs compiled by various compilation settings and explore its effect on binary decomposition methods. We first construct a dataset compiled by 17 compilers, using 6 optimizations to 4 architectures and analyze the changes and mappings of the FCGs. We find that the size of FCGs changes dramatically, while the FCGs are still linked by three different kinds of mappings. Then we evaluate the existing works under the FCG variance, and results show that existing works are facing great challenges when conducting cross-compiler evaluation with diverse optimization settings. Finally, we propose a method to identify the optimal decomposition and compare the existing decomposition works with the optimal decomposition. Existing works either suffer from low coverage or cannot generate stable community similarities.
- Abstract(参考訳): バイナリファイルをモジュールに分解するバイナリ分解は、バイナリ再利用の検出において重要な役割を果たす。
既存のバイナリ分解処理は、アンカー関数を拡張してモジュールを生成するアンカーベースのメソッドを適用するか、クラスタリングアルゴリズムを使用してバイナリ関数をグループ化するクラスタリングベースのメソッドを適用する。
しかし,関数呼び出しグラフ(FCG)は,コンパイル設定の異なる場合,特に関数のインライン化決定が多様であることが判明した。
本研究では,様々なコンパイル設定によってコンパイルされたFCGの分散に関する最初の系統的研究を行い,その二分分解法への影響について検討する。
まず17のコンパイラでコンパイルされたデータセットを構築し,6つの最適化を4つのアーキテクチャに適用し,FCGの変更とマッピングを分析した。
FCGのサイズは劇的に変化しますが、FCGは3種類のマッピングでリンクされています。
次に, FCG分散下での既存作業の評価を行い, 様々な最適化設定でクロスコンパイラ評価を行う場合, 既存の作業は大きな課題に直面していることを示す。
最後に, 最適分解を同定し, 既存の分解処理を最適分解と比較する手法を提案する。
既存の作業は、低いカバレッジに悩まされるか、安定したコミュニティの類似性を生まないかのいずれかである。
関連論文リスト
- Beyond the Edge of Function: Unraveling the Patterns of Type Recovery in Binary Code [55.493408628371235]
本稿では,バイナリコードの変数型を復元するフレームワークByteTRを提案する。
ByteTRは、関数間の変数伝搬の普遍性を考慮して、変数伝搬をトレースするためのプロシーダ間解析を行い、ゲートグラフニューラルネットワークを用いて、変数型回復のための長距離データフロー依存性をキャプチャする。
論文 参考訳(メタデータ) (2025-03-10T12:27:05Z) - FoC: Figure out the Cryptographic Functions in Stripped Binaries with LLMs [51.898805184427545]
削除されたバイナリの暗号関数を抽出するFoCと呼ばれる新しいフレームワークを提案する。
まず、自然言語における暗号関数のセマンティクスを要約するために、バイナリ大言語モデル(FoC-BinLLM)を構築した。
次に、FoC-BinLLM上にバイナリコード類似モデル(FoC-Sim)を構築し、変更に敏感な表現を作成し、データベース内の未知の暗号関数の類似実装を検索する。
論文 参考訳(メタデータ) (2024-03-27T09:45:33Z) - Factorizers for Distributed Sparse Block Codes [45.29870215671697]
分散ブロック符号(SBC)を高速かつ高精度に分解する手法を提案する。
我々の反復分解器は、しきい値に基づく非線形活性化、条件付きランダムサンプリング、および $ell_infty$-based similarity metricを導入している。
CIFAR-100, ImageNet-1K, RAVENデータセット上での4つの深層CNNアーキテクチャの実現可能性を示す。
論文 参考訳(メタデータ) (2023-03-24T12:31:48Z) - Are Random Decompositions all we need in High Dimensional Bayesian
Optimisation? [4.31133019086586]
グローバルに保持されていない局所的な分解に対して,データ駆動による分解学習者が容易に誤認できることが判明した。
木をベースとした無作為分解サンプリング装置は、ブラックボックスとそのサロゲート間の最大情報ゲインと機能ミスマッチを効果的にトレードオフする理論的保証を示す。
これらの結果は、(ほぼ)プラグ・アンド・プレイの実装が容易な乱分解上信頼結合アルゴリズム(RDUCB)の開発を動機付けている。
論文 参考訳(メタデータ) (2023-01-30T12:54:46Z) - Deep ensembles based on Stochastic Activation Selection for Polyp
Segmentation [82.61182037130406]
本研究は,大腸内視鏡検査における画像分割,特に正確なポリープ検出とセグメンテーションを扱う。
イメージセグメンテーションの基本アーキテクチャはエンコーダとデコーダで構成されている。
我々はデコーダのバックボーンを変更することで得られるDeepLabアーキテクチャのバリエーションを比較した。
論文 参考訳(メタデータ) (2021-04-02T02:07:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。