論文の概要: Evolving Assembly Code in an Adversarial Environment
- arxiv url: http://arxiv.org/abs/2403.19489v1
- Date: Thu, 28 Mar 2024 15:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 15:54:24.426427
- Title: Evolving Assembly Code in an Adversarial Environment
- Title(参考訳): 対立環境におけるアセンブリコードの進化
- Authors: Irina Maliukov, Gera Weiss, Oded Margalit, Achiya Elyasaf,
- Abstract要約: CodeGuruコンペティションのアセンブリコードを進化させます。
コンペティションの目標は、最も長い共有メモリを実行する組立プログラムであるサバイバルを作ることだ。
我々は,CodeGuruゲームにおいて,人手による勝利者に対するサバイバルの評価を行った。
- 参考スコア(独自算出の注目度): 4.219843731523025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we evolve assembly code for the CodeGuru competition. The competition's goal is to create a survivor -- an assembly program that runs the longest in shared memory, by resisting attacks from adversary survivors and finding their weaknesses. For evolving top-notch solvers, we specify a Backus Normal Form (BNF) for the assembly language and synthesize the code from scratch using Genetic Programming (GP). We evaluate the survivors by running CodeGuru games against human-written winning survivors. Our evolved programs found weaknesses in the programs they were trained against and utilized them. In addition, we compare our approach with a Large-Language Model, demonstrating that the latter cannot generate a survivor that can win at any competition. This work has important applications for cyber-security, as we utilize evolution to detect weaknesses in survivors. The assembly BNF is domain-independent; thus, by modifying the fitness function, it can detect code weaknesses and help fix them. Finally, the CodeGuru competition offers a novel platform for analyzing GP and code evolution in adversarial environments. To support further research in this direction, we provide a thorough qualitative analysis of the evolved survivors and the weaknesses found.
- Abstract(参考訳): この作業では、CodeGuruコンペティションのアセンブリコードを進化させます。
コンペティションの目標は、敵の生存者からの攻撃に抵抗し、弱点を見つけることで、最も長い共有メモリを実行する組立プログラム「サバイバル」を作ることだ。
トップノッチソルバを進化させるためには,アセンブリ言語用の正規形式 (BNF) を指定し,遺伝的プログラミング (GP) を用いてスクラッチからコードを合成する。
我々は,CodeGuruゲームにおいて,人手による勝利者に対するサバイバルの評価を行った。
進化したプログラムは、トレーニング対象のプログラムに弱点を見つけ、利用しました。
さらに,我々のアプローチを大規模ランゲージモデルと比較し,後者が任意の競技で勝利できるサバイバルを生成できないことを示す。
この研究は、進化を利用して生存者の弱点を検出するため、サイバーセキュリティに重要な応用がある。
アセンブリBNFはドメインに依存しないため、適合関数を変更することで、コードの弱点を検出し、修正するのに役立つ。
最後に、CodeGuruコンペティションは、敵環境におけるGPとコードの進化を分析する新しいプラットフォームを提供する。
この方向のさらなる研究を支援するため、進化した生き残りとその弱点の徹底的な質的分析を行う。
関連論文リスト
- Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [69.38352966504401]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - DeVAIC: A Tool for Security Assessment of AI-generated Code [5.383910843560784]
DeVAIC (Detection of Vulnerabilities in AI Generated Code)は、AI生成のPythonコードのセキュリティを評価するツールである。
論文 参考訳(メタデータ) (2024-04-11T08:27:23Z) - Exploring Safety Generalization Challenges of Large Language Models via Code [126.80573601180411]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの共通の安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - On the Adversarial Robustness of Generative Autoencoders in the Latent
Space [22.99128324197949]
本稿では,潜在空間における生成自己エンコーダの対角強靭性に関する最初の研究について述べる。
具体的には、潜伏空間における攻撃を通じて、一般的な生成オートエンコーダの潜伏する脆弱性を実証的に示す。
敵の強靭性と潜伏符号の絡み合いの程度との潜在的なトレードオフを同定する。
論文 参考訳(メタデータ) (2023-07-05T10:53:49Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Evolutionary Multi-Armed Bandits with Genetic Thompson Sampling [13.173307471333619]
遺伝的トンプソンサンプリング(英語版)は、エージェントの集団を維持し、エリート選択、クロスオーバー、突然変異などの遺伝的原理でそれらを更新するバンディットアルゴリズムである。
EvoBanditはWebベースのインタラクティブな視覚化で、学習プロセス全体を通して読者をガイドし、オンザフライで軽量な評価を行う。
論文 参考訳(メタデータ) (2022-04-26T22:41:17Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - Multi-context Attention Fusion Neural Network for Software Vulnerability
Identification [4.05739885420409]
ソースコードのセキュリティ脆弱性の共通カテゴリのいくつかを効率的に検出することを学ぶディープラーニングモデルを提案する。
モデルは、学習可能なパラメータの少ないコードセマンティクスの正確な理解を構築します。
提案したAIは、ベンチマークされたNIST SARDデータセットから特定のCWEに対して98.40%のF1スコアを達成する。
論文 参考訳(メタデータ) (2021-04-19T11:50:36Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。