論文の概要: A Deep Dive into Function Inlining and its Security Implications for ML-based Binary Analysis
- arxiv url: http://arxiv.org/abs/2512.14045v1
- Date: Tue, 16 Dec 2025 03:21:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.566688
- Title: A Deep Dive into Function Inlining and its Security Implications for ML-based Binary Analysis
- Title(参考訳): MLに基づくバイナリ解析における機能インライン化の深層化とそのセキュリティへの影響
- Authors: Omar Abusabha, Jiyong Uhm, Tamer Abuhmed, Hyungjoon Koo,
- Abstract要約: 本稿では,機械学習に基づくバイナリ解析のレンズによる機能インライン化に関する最初の包括的研究について述べる。
セキュリティのための5つのML支援バイナリ分析タスクに着目し、20のユニークなモデルを用いて、その堅牢性を体系的に評価する。
- 参考スコア(独自算出の注目度): 2.2259175702299188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A function inlining optimization is a widely used transformation in modern compilers, which replaces a call site with the callee's body in need. While this transformation improves performance, it significantly impacts static features such as machine instructions and control flow graphs, which are crucial to binary analysis. Yet, despite its broad impact, the security impact of function inlining remains underexplored to date. In this paper, we present the first comprehensive study of function inlining through the lens of machine learning-based binary analysis. To this end, we dissect the inlining decision pipeline within the LLVM's cost model and explore the combinations of the compiler options that aggressively promote the function inlining ratio beyond standard optimization levels, which we term extreme inlining. We focus on five ML-assisted binary analysis tasks for security, using 20 unique models to systematically evaluate their robustness under extreme inlining scenarios. Our extensive experiments reveal several significant findings: i) function inlining, though a benign transformation in intent, can (in)directly affect ML model behaviors, being potentially exploited by evading discriminative or generative ML models; ii) ML models relying on static features can be highly sensitive to inlining; iii) subtle compiler settings can be leveraged to deliberately craft evasive binary variants; and iv) inlining ratios vary substantially across applications and build configurations, undermining assumptions of consistency in training and evaluation of ML models.
- Abstract(参考訳): 関数のインライン化最適化は現代のコンパイラで広く使われている変換であり、コールサイトを呼び出し元のボディに置き換える。
この変換によって性能は向上するが、機械命令や制御フローグラフのような静的な特徴に大きく影響する。
しかし、その広範な影響にもかかわらず、機能インライン化によるセキュリティへの影響はいまだに過小評価されている。
本稿では,機械学習によるバイナリ解析のレンズによる機能インライン化について,初めて包括的な研究を行った。
この目的のために、LLVMのコストモデル内のインライン決定パイプラインを識別し、標準最適化レベルを超えて関数インライン比を積極的に促進するコンパイラオプションの組み合わせについて検討する。
セキュリティのための5つのML支援バイナリ分析タスクに注目し、20のユニークなモデルを使用して、極端なインライン化シナリオ下で、その堅牢性を体系的に評価する。
私たちの大規模な実験では、いくつかの重要な発見が示されています。
一 機能インライン化は、意図的な良性変換であるが、直接的にMLモデルの動作に影響を及ぼし、差別的又は生成的MLモデルを回避することにより、潜在的に悪用することができる。
二 静的特徴に依存したMLモデルは、インライン化に非常に敏感である。
三 微妙なコンパイラの設定を利用して、意図的に回避可能なバイナリバリアントを作成できること。
iv) インライン化比率はアプリケーションやビルド構成によって大きく異なり、トレーニングにおける一貫性の前提やMLモデルの評価が損なわれます。
関連論文リスト
- Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - Feedback-Driven Tool-Use Improvements in Large Language Models via Automated Build Environments [70.42705564227548]
大規模言語モデル(LLM)のための環境自動構築パイプラインを提案する。
これにより、外部ツールに頼ることなく、詳細な測定可能なフィードバックを提供する高品質なトレーニング環境の作成が可能になる。
また、ツール使用の精度とタスク実行の完全性の両方を評価する検証可能な報酬機構も導入する。
論文 参考訳(メタデータ) (2025-08-12T09:45:19Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - Beyond the Edge of Function: Unraveling the Patterns of Type Recovery in Binary Code [55.493408628371235]
本稿では,バイナリコードの変数型を復元するフレームワークByteTRを提案する。
ByteTRは、関数間の変数伝搬の普遍性を考慮して、変数伝搬をトレースするためのプロシーダ間解析を行い、ゲートグラフニューラルネットワークを用いて、変数型回復のための長距離データフロー依存性をキャプチャする。
論文 参考訳(メタデータ) (2025-03-10T12:27:05Z) - A Stochastic Approach to Bi-Level Optimization for Hyperparameter Optimization and Meta Learning [74.80956524812714]
我々は,現代のディープラーニングにおいて広く普及している一般的なメタ学習問題に対処する。
これらの問題は、しばしばBi-Level Optimizations (BLO)として定式化される。
我々は,与えられたBLO問題を,内部損失関数が滑らかな分布となり,外損失が内部分布に対する期待損失となるようなii最適化に変換することにより,新たな視点を導入する。
論文 参考訳(メタデータ) (2024-10-14T12:10:06Z) - Continuous Management of Machine Learning-Based Application Behavior [3.316045828362788]
機械学習モデルの非機能特性は、監視、検証、維持されなければならない。
MLベースのアプリケーションの安定な非機能動作を保証することを目的としたマルチモデルアプローチを提案する。
非機能的プロパティフェアネスに着目した実世界のシナリオで,我々のソリューションを実験的に評価した。
論文 参考訳(メタデータ) (2023-11-21T15:47:06Z) - Locally Interpretable Model Agnostic Explanations using Gaussian
Processes [2.9189409618561966]
LIME(Local Interpretable Model-Agnostic Explanations)は、単一インスタンスの予測を説明する一般的なテクニックである。
局所的解釈可能なモデルのガウス過程(GP)に基づくバリエーションを提案する。
提案手法は,LIMEに比べてはるかに少ないサンプルを用いて忠実な説明を生成可能であることを示す。
論文 参考訳(メタデータ) (2021-08-16T05:49:01Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。