論文の概要: Evolving Assembly Code in an Adversarial Environment
- arxiv url: http://arxiv.org/abs/2403.19489v1
- Date: Thu, 28 Mar 2024 15:21:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 15:54:24.426427
- Title: Evolving Assembly Code in an Adversarial Environment
- Title(参考訳): 対立環境におけるアセンブリコードの進化
- Authors: Irina Maliukov, Gera Weiss, Oded Margalit, Achiya Elyasaf,
- Abstract要約: CodeGuruコンペティションのアセンブリコードを進化させます。
コンペティションの目標は、最も長い共有メモリを実行する組立プログラムであるサバイバルを作ることだ。
我々は,CodeGuruゲームにおいて,人手による勝利者に対するサバイバルの評価を行った。
- 参考スコア(独自算出の注目度): 4.219843731523025
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we evolve assembly code for the CodeGuru competition. The competition's goal is to create a survivor -- an assembly program that runs the longest in shared memory, by resisting attacks from adversary survivors and finding their weaknesses. For evolving top-notch solvers, we specify a Backus Normal Form (BNF) for the assembly language and synthesize the code from scratch using Genetic Programming (GP). We evaluate the survivors by running CodeGuru games against human-written winning survivors. Our evolved programs found weaknesses in the programs they were trained against and utilized them. In addition, we compare our approach with a Large-Language Model, demonstrating that the latter cannot generate a survivor that can win at any competition. This work has important applications for cyber-security, as we utilize evolution to detect weaknesses in survivors. The assembly BNF is domain-independent; thus, by modifying the fitness function, it can detect code weaknesses and help fix them. Finally, the CodeGuru competition offers a novel platform for analyzing GP and code evolution in adversarial environments. To support further research in this direction, we provide a thorough qualitative analysis of the evolved survivors and the weaknesses found.
- Abstract(参考訳): この作業では、CodeGuruコンペティションのアセンブリコードを進化させます。
コンペティションの目標は、敵の生存者からの攻撃に抵抗し、弱点を見つけることで、最も長い共有メモリを実行する組立プログラム「サバイバル」を作ることだ。
トップノッチソルバを進化させるためには,アセンブリ言語用の正規形式 (BNF) を指定し,遺伝的プログラミング (GP) を用いてスクラッチからコードを合成する。
我々は,CodeGuruゲームにおいて,人手による勝利者に対するサバイバルの評価を行った。
進化したプログラムは、トレーニング対象のプログラムに弱点を見つけ、利用しました。
さらに,我々のアプローチを大規模ランゲージモデルと比較し,後者が任意の競技で勝利できるサバイバルを生成できないことを示す。
この研究は、進化を利用して生存者の弱点を検出するため、サイバーセキュリティに重要な応用がある。
アセンブリBNFはドメインに依存しないため、適合関数を変更することで、コードの弱点を検出し、修正するのに役立つ。
最後に、CodeGuruコンペティションは、敵環境におけるGPとコードの進化を分析する新しいプラットフォームを提供する。
この方向のさらなる研究を支援するため、進化した生き残りとその弱点の徹底的な質的分析を行う。
関連論文リスト
- FALCON: Feedback-driven Adaptive Long/short-term memory reinforced Coding Optimization system [8.775210512734603]
大規模言語モデル(LLM)は、コードの自動生成において大きな進歩を遂げた。
教師付き微調整(SFT)と人間からのフィードバック(RLHF)からの強化学習の課題は、正確で人間中心のコードを生成する失敗につながった。
フィードバック駆動型適応長/短周期メモリ強化符号化最適化(FALCON)を提案する。
論文 参考訳(メタデータ) (2024-10-28T12:18:22Z) - Is Your AI-Generated Code Really Safe? Evaluating Large Language Models on Secure Code Generation with CodeSecEval [20.959848710829878]
大規模言語モデル(LLM)は、コード生成とコード修復に大きな進歩をもたらした。
しかし、GitHubのようなオープンソースのリポジトリから無防備なデータを使用したトレーニングは、セキュリティ上の脆弱性を必然的に伝播するリスクを増大させる。
我々は,コードLLMのセキュリティ面を正確に評価し,拡張することを目的とした総合的研究を提案する。
論文 参考訳(メタデータ) (2024-07-02T16:13:21Z) - Does Your Neural Code Completion Model Use My Code? A Membership Inference Approach [66.51005288743153]
本稿では,現在のニューラルコード補完モデルの法的および倫理的問題について考察する。
私たちは、もともと分類タスクのために作られたメンバシップ推論アプローチ(CodeMIと呼ばれる)を調整します。
我々は,この適応型アプローチの有効性を,多種多様なニューラルコード補完モデルで評価した。
論文 参考訳(メタデータ) (2024-04-22T15:54:53Z) - DeVAIC: A Tool for Security Assessment of AI-generated Code [5.383910843560784]
DeVAIC (Detection of Vulnerabilities in AI Generated Code)は、AI生成のPythonコードのセキュリティを評価するツールである。
論文 参考訳(メタデータ) (2024-04-11T08:27:23Z) - CodeAttack: Revealing Safety Generalization Challenges of Large Language Models via Code Completion [117.178835165855]
本稿では,自然言語入力をコード入力に変換するフレームワークであるCodeAttackを紹介する。
我々の研究は、コード入力に対するこれらのモデルの新たな、普遍的な安全性の脆弱性を明らかにした。
CodeAttackと自然言語の分布ギャップが大きくなると、安全性の一般化が弱くなる。
論文 参考訳(メタデータ) (2024-03-12T17:55:38Z) - LLM-Powered Code Vulnerability Repair with Reinforcement Learning and
Semantic Reward [3.729516018513228]
我々は,大規模な言語モデルであるCodeGen2を利用した多目的コード脆弱性解析システム texttSecRepair を導入する。
そこで本研究では,LLMを用いた脆弱性解析に適した命令ベースデータセットを提案する。
GitHub上の6つのオープンソースIoTオペレーティングシステムにおいて、ゼロデイとNデイの脆弱性を特定します。
論文 参考訳(メタデータ) (2024-01-07T02:46:39Z) - CodeLMSec Benchmark: Systematically Evaluating and Finding Security
Vulnerabilities in Black-Box Code Language Models [58.27254444280376]
自動コード生成のための大規模言語モデル(LLM)は、いくつかのプログラミングタスクにおいてブレークスルーを達成した。
これらのモデルのトレーニングデータは、通常、インターネット(例えばオープンソースのリポジトリから)から収集され、障害やセキュリティ上の脆弱性を含む可能性がある。
この不衛生なトレーニングデータは、言語モデルにこれらの脆弱性を学習させ、コード生成手順中にそれを伝播させる可能性がある。
論文 参考訳(メタデータ) (2023-02-08T11:54:07Z) - Evolutionary Multi-Armed Bandits with Genetic Thompson Sampling [13.173307471333619]
遺伝的トンプソンサンプリング(英語版)は、エージェントの集団を維持し、エリート選択、クロスオーバー、突然変異などの遺伝的原理でそれらを更新するバンディットアルゴリズムである。
EvoBanditはWebベースのインタラクティブな視覚化で、学習プロセス全体を通して読者をガイドし、オンザフライで軽量な評価を行う。
論文 参考訳(メタデータ) (2022-04-26T22:41:17Z) - Improving Compositionality of Neural Networks by Decoding
Representations to Inputs [83.97012077202882]
我々は、ニューラルネットワークのアクティベーションを制約し、入力に"デコード"するように生成モデルを共同で訓練することで、従来のディープラーニングプログラムの利点を橋渡しする。
本稿では,デオード可能な表現の分布外検出,逆例,校正,公平性への応用を実証する。
論文 参考訳(メタデータ) (2021-06-01T20:07:16Z) - Measuring Coding Challenge Competence With APPS [54.22600767666257]
コード生成のベンチマークであるAPPSを紹介する。
私たちのベンチマークには1万の問題が含まれています。
GPT-Neoのような最近のモデルでは、導入問題のテストケースの約15%をパスできる。
論文 参考訳(メタデータ) (2021-05-20T17:58:42Z) - COSEA: Convolutional Code Search with Layer-wise Attention [90.35777733464354]
我々は、畳み込みニューラルネットワークを階層的注意で活用し、コード固有の構造論理をキャプチャする新しいディープラーニングアーキテクチャ、COSEAを提案する。
COSEAは、コード検索タスクの最先端メソッドよりも大幅に改善できる。
論文 参考訳(メタデータ) (2020-10-19T13:53:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。