論文の概要: Untargeted Code Authorship Evasion with Seq2Seq Transformation
- arxiv url: http://arxiv.org/abs/2311.15366v1
- Date: Sun, 26 Nov 2023 17:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 18:09:26.376472
- Title: Untargeted Code Authorship Evasion with Seq2Seq Transformation
- Title(参考訳): seq2seq変換による非ターゲットコードオーサシップ回避
- Authors: Soohyeon Choi and Rhongho Jang and DaeHun Nyang and David Mohaisen
- Abstract要約: コードオーサシップの難読化技術であるSCAEは,StructCoderと呼ばれるSeq2Seqコードトランスを利用する。
また,85%の変換成功率と95.77%の回避成功率を維持しながら,処理時間を約68%短縮した。
- 参考スコア(独自算出の注目度): 17.72516096778964
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Code authorship attribution is the problem of identifying authors of
programming language codes through the stylistic features in their codes, a
topic that recently witnessed significant interest with outstanding
performance. In this work, we present SCAE, a code authorship obfuscation
technique that leverages a Seq2Seq code transformer called StructCoder. SCAE
customizes StructCoder, a system designed initially for function-level code
translation from one language to another (e.g., Java to C#), using transfer
learning. SCAE improved the efficiency at a slight accuracy degradation
compared to existing work. We also reduced the processing time by about 68%
while maintaining an 85% transformation success rate and up to 95.77% evasion
success rate in the untargeted setting.
- Abstract(参考訳): コードオーサシップの属性(Code Authorship Attribution)は、プログラム言語コードの作者をコード内のスタイリスティックな特徴を通じて識別する問題である。
本稿では、StuctCoderと呼ばれるSeq2Seqコードトランスフォーマーを利用する、コードオーサシップ難読化技術であるSCAEを紹介する。
SCAEは、ある言語から別の言語(例えばJavaからC#)への関数レベルのコード変換用に最初に設計されたシステムであるStructCoderを、転送学習を使ってカスタマイズする。
SCAEは、既存の作業と比べて、わずかに精度の低下で効率を向上した。
また,85%のトランスフォーメーション成功率と95.77%の回避成功率を維持しながら,処理時間を約68%削減した。
関連論文リスト
- ChangeGuard: Validating Code Changes via Pairwise Learning-Guided Execution [16.130469984234956]
ChangeGuardは、学習誘導型実行を使用して、修正された関数の実行動作を比較するアプローチである。
提案手法は,77.1%の精度で,69.5%のリコールで意味的変化を識別する。
論文 参考訳(メタデータ) (2024-10-21T15:13:32Z) - Converting Epics/Stories into Pseudocode using Transformers [0.0]
Pseudocodeは、コンピュータプログラムに関わるステップのプログラミング言語表現である。
本稿では,英語で記述された問題を擬似コードに変換する手法を提案する。
上記の2つのサブタスクで個別にトレーニングすると,CodeT5モデルはBLEUスコアで最高の結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-12-08T14:01:09Z) - Air-Decoding: Attribute Distribution Reconstruction for Decoding-Time
Controllable Text Generation [58.911255139171075]
制御可能なテキスト生成(CTG)は、望ましい属性を持つテキストを生成することを目的としている。
本研究では,Air-Decoding という新しい軽量デコーディングフレームワークを提案する。
提案手法は,新しい最先端制御性能を実現する。
論文 参考訳(メタデータ) (2023-10-23T12:59:11Z) - Guess & Sketch: Language Model Guided Transpilation [59.02147255276078]
学習されたトランスパイレーションは、手作業による書き直しやエンジニアリングの取り組みに代わるものだ。
確率的ニューラルネットワークモデル(LM)は、入力毎に可塑性出力を生成するが、正確性を保証するコストがかかる。
Guess & Sketch は LM の特徴からアライメントと信頼性情報を抽出し、意味的等価性を解決するためにシンボリック・ソルバに渡す。
論文 参考訳(メタデータ) (2023-09-25T15:42:18Z) - Decoder-Only or Encoder-Decoder? Interpreting Language Model as a
Regularized Encoder-Decoder [75.03283861464365]
seq2seqタスクは、与えられた入力ソースシーケンスに基づいてターゲットシーケンスを生成することを目的としている。
伝統的に、seq2seqタスクのほとんどはエンコーダによって解決され、ソースシーケンスとデコーダをエンコードしてターゲットテキストを生成する。
最近、デコーダのみの言語モデルをseq2seqタスクに直接適用する、多くの新しいアプローチが出現しました。
論文 参考訳(メタデータ) (2023-04-08T15:44:29Z) - CCRep: Learning Code Change Representations via Pre-Trained Code Model
and Query Back [8.721077261941236]
この研究は、CCRepという新しいコード変更表現学習手法を提案する。
CCRepは、さまざまな下流タスクのための機能ベクトルとして、コード変更をエンコードすることを学ぶ。
CCRepをコミットメッセージ生成、パッチの正当性評価、ジャスト・イン・タイム欠陥予測の3つのタスクに適用する。
論文 参考訳(メタデータ) (2023-02-08T07:43:55Z) - ContraCLM: Contrastive Learning For Causal Language Model [54.828635613501376]
トークンレベルとシーケンスレベルの両方において,新しいコントラスト学習フレームワークであるContraCLMを提案する。
ContraCLMは表現の識別を強化し、エンコーダのみのモデルとのギャップを埋めることを示す。
論文 参考訳(メタデータ) (2022-10-03T18:56:35Z) - Transformer with Tree-order Encoding for Neural Program Generation [8.173517923612426]
木に基づく位置エンコーディングと、トランスフォーマーのための自然言語サブワード語彙の共有を導入する。
その結果,木に基づく位置符号化と自然言語サブワード語彙の共有を併用することで,逐次的位置符号化よりも生成性能が向上することが示唆された。
論文 参考訳(メタデータ) (2022-05-30T12:27:48Z) - ReACC: A Retrieval-Augmented Code Completion Framework [53.49707123661763]
本稿では,語彙のコピーと類似したセマンティクスを持つコード参照の両方を検索により活用する検索拡張コード補完フレームワークを提案する。
我々は,Python および Java プログラミング言語のコード補完タスクにおけるアプローチを評価し,CodeXGLUE ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-03-15T08:25:08Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。