論文の概要: gMBA: Expression Semantic Guided Mixed Boolean-Arithmetic Deobfuscation Using Transformer Architectures
- arxiv url: http://arxiv.org/abs/2506.23634v1
- Date: Mon, 30 Jun 2025 09:03:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.985122
- Title: gMBA: Expression Semantic Guided Mixed Boolean-Arithmetic Deobfuscation Using Transformer Architectures
- Title(参考訳): gMBA: トランスフォーマーアーキテクチャを用いた表現セマンティックガイド混合ブール-アリーメティック難読化
- Authors: Youjeong Noh, Joon-Young Paik, Jingun Kwon, Eun-Sun Cho,
- Abstract要約: Mixed Boolean-Arithmetic (MBA) obfuscationは、プログラムを分析がより複雑である形式に変換することにより、知的財産権を保護する。
伝統的なMBAの難読化法は、これらの表現をブラックボックスの一部として考慮し、内部のセマンティック情報を見落としていることが多い。
本稿では,表現の振舞いを自動的に表現する真理表を提案する。
- 参考スコア(独自算出の注目度): 1.7186863539230333
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Mixed Boolean-Arithmetic (MBA) obfuscation protects intellectual property by converting programs into forms that are more complex to analyze. However, MBA has been increasingly exploited by malware developers to evade detection and cause significant real-world problems. Traditional MBA deobfuscation methods often consider these expressions as part of a black box and overlook their internal semantic information. To bridge this gap, we propose a truth table, which is an automatically constructed semantic representation of an expression's behavior that does not rely on external resources. The truth table is a mathematical form that represents the output of expression for all possible combinations of input. We also propose a general and extensible guided MBA deobfuscation framework (gMBA) that modifies a Transformer-based neural encoder-decoder Seq2Seq architecture to incorporate this semantic guidance. Experimental results and in-depth analysis show that integrating expression semantics significantly improves performance and highlights the importance of internal semantic expressions in recovering obfuscated code to its original form.
- Abstract(参考訳): Mixed Boolean-Arithmetic (MBA) obfuscationは、プログラムを分析がより複雑である形式に変換することにより、知的財産権を保護する。
しかし、MBAは、マルウェア開発者が検出を回避し、重大な現実世界の問題を引き起こすために、ますます悪用されている。
伝統的なMBAの難読化法は、これらの表現をブラックボックスの一部として考慮し、内部のセマンティック情報を見落としていることが多い。
このギャップを埋めるために、外部リソースに依存しない表現の振る舞いを意味的に自動的に表現する真理表を提案する。
真理表は、全ての可能な入力の組み合わせに対する表現の出力を表す数学的形式である。
また、トランスフォーマーベースのニューラルエンコーダデコーダSeq2Seqアーキテクチャを改良し、このセマンティックガイダンスを組み込む汎用かつ拡張可能なMBAデオブファシエーションフレームワーク(gMBA)を提案する。
実験結果と詳細な分析により,表現意味論の統合は性能を著しく向上させ,難解なコードを元の形式に復元する上で,内部意味表現の重要性を強調した。
関連論文リスト
- Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - The Code Barrier: What LLMs Actually Understand? [7.407441962359689]
本研究では,言語モデルの意味理解能力を評価するために,コード難読化を構造化テストフレームワークとして利用する。
難読化の複雑さが増加するにつれて、統計的に顕著な性能低下が見られる。
本研究では,言語モデルにおけるコード理解を評価するための新しい評価手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T14:11:26Z) - Monet: Mixture of Monosemantic Experts for Transformers [33.8311330578753]
トランスフォーマー(Monet)アーキテクチャのためのモノセマンティックエキスパート(Mixture of Monosemantic Experts)を紹介する。
Monetはスパース辞書学習を直接エンドツーエンドのMixture-of-Expertsプリトレーニングに組み込む。
本分析は,専門家間の知識の相互排他性を示し,各専門家にカプセル化されたパラメトリック知識を示す。
論文 参考訳(メタデータ) (2024-12-05T13:06:03Z) - Deobfuscation of Semi-Linear Mixed Boolean-Arithmetic Expressions [0.0]
MBA(Mixed-Arithmetic obfuscation)は、単純な表現を意味論的に等価だがより複雑な組み合わせに変換する手法である。
より広範な表現のクラスを単純化できるSiMBAの拡張を提案する。
論文 参考訳(メタデータ) (2024-06-14T13:27:40Z) - Sharing Key Semantics in Transformer Makes Efficient Image Restoration [148.22790334216117]
視覚変換器(ViT)の基盤となる自己注意機構は、すべてのグローバルな手がかりを包含する傾向がある。
劣化した画像の小さな部分、特にセマンティックに密に整合した部分では、回復プロセスを支援するために特に関連する情報を提供する。
本稿では, IR(e, SemanIR) 用の Transformer を通じて鍵セマンティクスを共有することで, IR の性能向上を提案する。
論文 参考訳(メタデータ) (2024-05-30T12:45:34Z) - Simplifying MBA Expression Using E-Graphs [1.1879716317856948]
Mixed Boolean Arithmetic (MBA) obfuscationは、既存のコードの難読化技術を用いて解読するのが最も難しいと考えられている。
我々は、電子グラフデータ構造を用いて、同じ意味論の複数の表現を効率的に保持し、項を書き直し、より単純な表現を見つける。
論文 参考訳(メタデータ) (2024-04-08T12:02:06Z) - CL-MAE: Curriculum-Learned Masked Autoencoders [49.24994655813455]
本稿では,自己指導型再建作業の複雑さを継続的に増大させるために,マスキング戦略を更新するカリキュラム学習手法を提案する。
我々は、ImageNet上でCL-MAE(Curriculum-Learned Masked Autoencoder)をトレーニングし、MAEよりも優れた表現学習能力を示すことを示す。
論文 参考訳(メタデータ) (2023-08-31T09:13:30Z) - ConTextual Mask Auto-Encoder for Dense Passage Retrieval [49.49460769701308]
CoT-MAEは,高密度経路抽出のための簡易かつ効果的な生成前訓練法である。
文のセマンティクスを高密度ベクトルに圧縮する学習は、自己教師付きおよび文脈教師付きマスキングによる自動エンコーディングによって行われる。
我々は,大規模経路探索ベンチマークの実験を行い,強力なベースラインよりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2022-08-16T11:17:22Z) - Software Vulnerability Detection via Deep Learning over Disaggregated
Code Graph Representation [57.92972327649165]
この研究は、コードコーパスから安全でないパターンを自動的に学習するためのディープラーニングアプローチを探求する。
コードには解析を伴うグラフ構造が自然に認められるため,プログラムの意味的文脈と構造的規則性の両方を利用する新しいグラフニューラルネットワーク(GNN)を開発する。
論文 参考訳(メタデータ) (2021-09-07T21:24:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。