論文の概要: Deobfuscation of Semi-Linear Mixed Boolean-Arithmetic Expressions
- arxiv url: http://arxiv.org/abs/2406.10016v2
- Date: Fri, 21 Jun 2024 10:04:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-24 18:57:27.933578
- Title: Deobfuscation of Semi-Linear Mixed Boolean-Arithmetic Expressions
- Title(参考訳): 半線形混合ブール-アリーメティック表現の難読化
- Authors: Colton Skees,
- Abstract要約: MBA(Mixed-Arithmetic obfuscation)は、単純な表現を意味論的に等価だがより複雑な組み合わせに変換する手法である。
より広範な表現のクラスを単純化できるSiMBAの拡張を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Mixed Boolean-Arithmetic (MBA) obfuscation is a common technique used to transform simple expressions into semantically equivalent but more complex combinations of boolean and arithmetic operators. Its widespread usage in DRM systems, malware, and software protectors is well documented. In 2021, Liu et al. proposed a groundbreaking method of simplifying linear MBAs, utilizing a hidden two-way transformation between 1-bit and n-bit variables. In 2022, Reichenwallner et al. proposed a similar but more effective method of simplifying linear MBAs, SiMBA, relying on a similar but more involved theorem. However, because current linear MBA simplifiers operate in 1-bit space, they cannot handle expressions which utilize constants inside of their bitwise operands, e.g. (x&1), (x&1111) + (y&1111). We propose an extension to SiMBA that enables simplification of this broader class of expressions. It surpasses peer tools, achieving efficient simplification of a class of MBAs that current simplifiers struggle with.
- Abstract(参考訳): 混合ブール-アリシメティック(MBA)難解化(Mixed Boolean-Arithmetic)は、単純な式を意味論的に等価だがより複雑なブール演算と算術演算の組合せに変換するために用いられる一般的な手法である。
DRMシステム、マルウェア、ソフトウェアプロテクターで広く使われていることは、十分に文書化されている。
2021年、Louらは1ビット変数とnビット変数の間の隠れた双方向変換を利用して線形MBAを単純化する画期的な方法を提案した。
2022年、Reichenwallnerらも同様だがより効果的に線形MBA、SiMBAを単純化する方法を提案した。
しかし、現在の線形MBA単純化器は1ビット空間で動作するため、ビット幅のオペランド内で定数を利用する式、e g (x&1), (x&1111) + (y&1111) は扱えない。
我々は、このより広範な表現のクラスを単純化できるSiMBAの拡張を提案する。
ピアツールを超越し、現在の単純化者が苦労するMBAのクラスを効率的に単純化する。
関連論文リスト
- Executing Arithmetic: Fine-Tuning Large Language Models as Turing Machines [7.695524275630717]
大規模言語モデル(LLM)は、広範囲の自然言語処理と推論タスクで顕著な機能を示している。
チューリングマシンをエミュレートすることで,LCMがステップバイステップの計算を実行することを学べる構成可能な算術演算フレームワーク(CAEF)を提案する。
評価では, LLaMA 3.1-8B モデル上での7つの一般的な数学的操作に対して, CAEF は100%近い精度を達成している。
論文 参考訳(メタデータ) (2024-10-10T13:23:49Z) - BoostCom: Towards Efficient Universal Fully Homomorphic Encryption by Boosting the Word-wise Comparisons [14.399750086329345]
完全同型暗号化(FHE)は、最初に復号化することなく、暗号化データ上での計算の実行を可能にする。
本稿では,単語比較処理の高速化を目的としたBoostComを提案する。
我々は、最先端のCPUベースのuFHEシステムと比較して、桁違い(11.1倍高速)のエンドツーエンド性能向上を実現している。
論文 参考訳(メタデータ) (2024-07-10T02:09:10Z) - OccamLLM: Fast and Exact Language Model Arithmetic in a Single Step [7.7168728919692855]
本稿では,1つの自己回帰的なステップで正確な算術を可能にするフレームワークを提案する。
我々は LLM の隠蔽状態を用いて演算を行う記号的アーキテクチャを制御する。
シンボルモデル(OccamLlama)としてOccamNetを用いたLlama 3の実装は,1つの算術演算において100%の精度を実現する。
論文 参考訳(メタデータ) (2024-06-04T04:17:40Z) - Hierarchical Context Merging: Better Long Context Understanding for Pre-trained LLMs [61.40047491337793]
本稿では,大規模言語モデルの制約を克服する新しいトレーニングフリースキームである階層型cOntext MERging(HOMER)を提案する。
HomeRは、長いインプットを管理可能なチャンクに分割する、分別/対数アルゴリズムを使用する。
トークン削減技術がマージ毎に先行し、メモリ使用効率が保証される。
論文 参考訳(メタデータ) (2024-04-16T06:34:08Z) - Simplifying MBA Expression Using E-Graphs [1.1879716317856948]
Mixed Boolean Arithmetic (MBA) obfuscationは、既存のコードの難読化技術を用いて解読するのが最も難しいと考えられている。
我々は、電子グラフデータ構造を用いて、同じ意味論の複数の表現を効率的に保持し、項を書き直し、より単純な表現を見つける。
論文 参考訳(メタデータ) (2024-04-08T12:02:06Z) - Reverse That Number! Decoding Order Matters in Arithmetic Learning [49.5504492920404]
本研究は,最少の桁から出力を優先順位付けすることで,桁順を再評価する新たな戦略を導入する。
従来のSOTA法と比較すると,通常のトレーニングで使用するトークンの3分の1しか必要とせず,精度の全体的な改善が見られた。
論文 参考訳(メタデータ) (2024-03-09T09:04:53Z) - MambaByte: Token-free Selective State Space Model [71.90159903595514]
マンババイト(英: MambaByte)は、マンバSSMがバイト配列で自己回帰的に訓練したトークンレス適応である。
MambaByteは、言語モデリングタスクにおいて、最先端のサブワードトランスフォーマーよりも優れています。
論文 参考訳(メタデータ) (2024-01-24T18:53:53Z) - MuggleMath: Assessing the Impact of Query and Response Augmentation on Math Reasoning [54.2093509928664]
大規模言語モデルを用いた数学推論では、クエリの進化と多様な推論経路による微調整データ拡張が実験的に有効である。
本研究では,数理推論におけるそのようなデータ拡張に関する調査を行い,これらの疑問に答えることを意図している。
コードと拡張データはhttps://github.com/OFA-Sys/8k-Scel.comで公開しています。
論文 参考訳(メタデータ) (2023-10-09T08:18:58Z) - CoLA: Exploiting Compositional Structure for Automatic and Efficient
Numerical Linear Algebra [62.37017125812101]
機械学習における大規模線形代数問題に対して, CoLA という, 単純だが汎用的なフレームワークを提案する。
線形演算子抽象と合成ディスパッチルールを組み合わせることで、CoLAはメモリと実行時の効率的な数値アルゴリズムを自動的に構築する。
偏微分方程式,ガウス過程,同変モデル構築,教師なし学習など,幅広い応用で有効性を示す。
論文 参考訳(メタデータ) (2023-09-06T14:59:38Z) - Boolean and $\mathbb{F}_p$-Matrix Factorization: From Theory to Practice [3.658952625899939]
我々は$mathbbF_p$-Matrix Factorizationのための新しいアルゴリズムを開発した。
EPTAS for BMFは純粋に理論上の進歩である。
また、この戦略を用いて、関連する$mathbbF_p$-Matrix Factorizationのための新しいアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-07-25T06:05:12Z) - Reinforcement Learning for Branch-and-Bound Optimisation using
Retrospective Trajectories [72.15369769265398]
機械学習は分岐のための有望なパラダイムとして登場した。
分岐のための単純かつ効果的なRLアプローチであるレトロ分岐を提案する。
我々は現在最先端のRL分岐アルゴリズムを3~5倍に上回り、500の制約と1000の変数を持つMILP上での最高のILメソッドの性能の20%以内である。
論文 参考訳(メタデータ) (2022-05-28T06:08:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。