論文の概要: Empirical Assessment of the Code Comprehension Effort Needed to Attack Programs Protected with Obfuscation
- arxiv url: http://arxiv.org/abs/2511.21301v1
- Date: Wed, 26 Nov 2025 11:48:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.078556
- Title: Empirical Assessment of the Code Comprehension Effort Needed to Attack Programs Protected with Obfuscation
- Title(参考訳): 難読化による攻撃プログラムに必要なコード理解の実証評価
- Authors: Leonardo Regano, Daniele Canavese, Cataldo Basile, Marco Torchiano,
- Abstract要約: この研究は、1つの保護されたコードに対して複数の難読化テクニックをレイヤー化する効果を初めて評価した。
また、攻撃されたコードの客観的なメトリクスと攻撃が成功する可能性の相関に関する実験的な証拠を提供する。
- 参考スコア(独自算出の注目度): 1.3066182802188202
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Evaluating the effectiveness of software protection is crucial for selecting the most effective methods to safeguard assets within software applications. Obfuscation involves techniques that deliberately modify software to make it more challenging to understand and reverse-engineer, while maintaining its original functionality. Although obfuscation is widely adopted, its effectiveness remains largely unexplored and unthoroughly evaluated. This paper presents a controlled experiment involving Master's students performing code comprehension tasks on applications hardened with obfuscation. The experiment's goals are to assess the effectiveness of obfuscation in delaying code comprehension by attackers and to determine whether complexity metrics can accurately predict the impact of these protections on success rates and durations of code comprehension tasks. The study is the first to evaluate the effect of layering multiple obfuscation techniques on a single piece of protected code. It also provides experimental evidence of the correlation between objective metrics of the attacked code and the likelihood of a successful attack, bridging the gap between objective and subjective approaches to estimating potency. Finally, the paper highlights significant aspects that warrant additional analysis and opens new avenues for further experiments.
- Abstract(参考訳): ソフトウェアアプリケーション内の資産を保護するための最も効果的な方法を選択するためには、ソフトウェア保護の有効性を評価することが不可欠である。
難読化(obfuscation)とは、ソフトウェアを意図的に修正し、元の機能を維持しながら、理解とリバースエンジニアリングをより困難にするテクニックである。
難読化は広く採用されているが、その効果は未解明であり、未解明のままである。
本稿では,マスターの生徒が難読化処理を施したアプリケーション上で,コード理解タスクを行うための制御実験について述べる。
この実験の目的は、攻撃者によるコードの理解を遅らせる難読化の有効性を評価し、複雑なメトリクスがこれらの保護がコード理解タスクの成功率と持続時間に与える影響を正確に予測できるかどうかを判断することである。
この研究は、1つの保護されたコードに対して複数の難読化テクニックをレイヤー化する効果を初めて評価した。
また、攻撃されたコードの客観的な測定値と攻撃が成功する可能性の相関を実験的に証明し、目的と主観的なアプローチのギャップを埋めて有効性を推定する。
最後に、この論文は、さらなる分析を保証し、さらなる実験のための新たな道を開く重要な側面を強調している。
関連論文リスト
- iCodeReviewer: Improving Secure Code Review with Mixture of Prompts [5.322602557660654]
iCodeReviewerは,大規模言語モデル(LLM)に基づいた,セキュアな自動レビューアプローチである。
実験結果は、F1の63.98%のセキュリティ問題同定とローカライゼーションにおけるiCodeReviewerの有効性を示す。
iCodeReviewerが生成したレビューコメントは、本番環境にデプロイされた場合の受け入れ率も最大84%に達する。
論文 参考訳(メタデータ) (2025-10-14T06:30:59Z) - DATABench: Evaluating Dataset Auditing in Deep Learning from an Adversarial Perspective [70.77570343385928]
内的特徴(IF)と外的特徴(EF)(監査のための技術導入)に依存した既存手法の分類を新たに導入する。
回避攻撃(evasion attack)は、データセットの使用を隠蔽するために設計されたもので、偽造攻撃(forgery attack)は、未使用のデータセットを誤って含んでいることを意図している。
さらに,既存手法の理解と攻撃目標に基づいて,回避のための分離・除去・検出,偽造の逆例に基づく攻撃方法など,系統的な攻撃戦略を提案する。
私たちのベンチマークであるData dataBenchは、17の回避攻撃、5の偽攻撃、9の攻撃で構成されています。
論文 参考訳(メタデータ) (2025-07-08T03:07:15Z) - Evaluating Software Plagiarism Detection in the Age of AI: Automated Obfuscation and Lessons for Academic Integrity [0.0]
プログラミングの課題におけるプラジャリズムは、コンピュータサイエンス教育において永続的な問題である。
ソフトウェア盗作検知器は、大規模に不審な類似点を特定するために広く用いられている。
プログラムコードの構造的変更に基づく高度な難読化に対して脆弱である。
論文 参考訳(メタデータ) (2025-05-26T15:59:01Z) - The Code Barrier: What LLMs Actually Understand? [7.407441962359689]
本研究では,言語モデルの意味理解能力を評価するために,コード難読化を構造化テストフレームワークとして利用する。
難読化の複雑さが増加するにつれて、統計的に顕著な性能低下が見られる。
本研究では,言語モデルにおけるコード理解を評価するための新しい評価手法を提案する。
論文 参考訳(メタデータ) (2025-04-14T14:11:26Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Towards Effective Evaluations and Comparisons for LLM Unlearning Methods [97.2995389188179]
本稿では,大規模言語モデルにおける機械学習評価の精度向上を図る。
評価指標の堅牢性と、競合する目標間のトレードオフという、2つの重要な課題に対処します。
論文 参考訳(メタデータ) (2024-06-13T14:41:00Z) - Token-Level Adversarial Prompt Detection Based on Perplexity Measures
and Contextual Information [67.78183175605761]
大規模言語モデルは、敵の迅速な攻撃に影響を受けやすい。
この脆弱性は、LLMの堅牢性と信頼性に関する重要な懸念を浮き彫りにしている。
トークンレベルで敵のプロンプトを検出するための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-11-20T03:17:21Z) - An Extensive Study on Adversarial Attack against Pre-trained Models of
Code [14.948361027395748]
Transformer-based pre-trained code (PTMC) は広く利用されており、多くのミッションクリティカルなアプリケーションで最先端のパフォーマンスを実現している。
識別子の置換やコーディングスタイルの変換によって、敵の攻撃に弱い可能性がある。
本研究は,5つの対人攻撃アプローチを3つの観点から体系的に分析する。
論文 参考訳(メタデータ) (2023-11-13T18:48:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。