論文の概要: How Do Semantically Equivalent Code Transformations Impact Membership Inference on LLMs for Code?
- arxiv url: http://arxiv.org/abs/2512.15468v1
- Date: Wed, 17 Dec 2025 14:12:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.020429
- Title: How Do Semantically Equivalent Code Transformations Impact Membership Inference on LLMs for Code?
- Title(参考訳): 意味的に等価なコード変換は、コードのためのLLMのメンバシップ推論にどのように影響するか?
- Authors: Hua Yang, Alejandro Velasco, Thanh Le-Cong, Md Nazmul Haque, Bowen Xu, Denys Poshyvanyk,
- Abstract要約: 意味論的に等価なコード変換規則がMI検出の回避に有効かどうかを検討する。
各ルールで最悪の場合、モデルの精度はわずか1.5%低下する。
コードのための大規模言語モデルをトレーニングするためのライセンスコンプライアンスの実施において,我々の結果は重大な欠陥を露呈する。
- 参考スコア(独自算出の注目度): 56.42119949944239
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The success of large language models for code relies on vast amounts of code data, including public open-source repositories, such as GitHub, and private, confidential code from companies. This raises concerns about intellectual property compliance and the potential unauthorized use of license-restricted code. While membership inference (MI) techniques have been proposed to detect such unauthorized usage, their effectiveness can be undermined by semantically equivalent code transformation techniques, which modify code syntax while preserving semantic. In this work, we systematically investigate whether semantically equivalent code transformation rules might be leveraged to evade MI detection. The results reveal that model accuracy drops by only 1.5% in the worst case for each rule, demonstrating that transformed datasets can effectively serve as substitutes for fine-tuning. Additionally, we find that one of the rules (RenameVariable) reduces MI success by 10.19%, highlighting its potential to obscure the presence of restricted code. To validate these findings, we conduct a causal analysis confirming that variable renaming has the strongest causal effect in disrupting MI detection. Notably, we find that combining multiple transformations does not further reduce MI effectiveness. Our results expose a critical loophole in license compliance enforcement for training large language models for code, showing that MI detection can be substantially weakened by transformation-based obfuscation techniques.
- Abstract(参考訳): コードのための大規模な言語モデルの成功は、GitHubのような公開オープンソースリポジトリや、企業からのプライベートな機密コードなど、膨大な量のコードデータに依存している。
これにより、知的財産権の遵守とライセンス制限コードの使用に関する懸念が高まる。
メンバシップ推論(MI)技術は、そのような不正な使用を検出するために提案されているが、それらの効果は意味論的に等価なコード変換技術によって損なわれる可能性がある。
本研究では,意味論的に等価なコード変換規則がMI検出を回避するために有効かどうかを系統的に検討する。
その結果、モデル精度は各ルールの最悪の場合でわずか1.5%低下し、変換されたデータセットがファインチューニングの代用として効果的に機能できることが判明した。
さらに、ルールの1つ(RenameVariable)はMIの成功を10.19%削減し、制限されたコードの存在を曖昧にする可能性を強調している。
これらの知見を検証するために,変数のリネームがMI検出を阻害する最も強い因果効果があることを確認する因果解析を行った。
特に、複数の変換を組み合わせることで、MIの有効性がさらに低下しないことがわかった。
この結果から,MI検出は変換に基づく難読化技術により大幅に低下する可能性が示唆された。
関連論文リスト
- Uncovering Pretraining Code in LLMs: A Syntax-Aware Attribution Approach [20.775027150345107]
オープンソースコードは、しばしばオープンソースライセンスによって保護されるが、事前トレーニングで使用する場合、法的および倫理的な課題を提起する。
コードに適した構文決定型メンバシップ推論攻撃法であるSynPruneを提案する。
論文 参考訳(メタデータ) (2025-11-10T12:29:09Z) - Zero-Shot Detection of LLM-Generated Code via Approximated Task Conditioning [8.571111167616165]
LLM(Large Language Model)が生成するコードは、セキュリティ、知的財産権、学術的完全性に影響を及ぼす。
ゼロショットLLM生成符号検出における条件付き確率分布の役割について検討する。
与えられたコードスニペットを生成するのに使用される元のタスクを近似する新しいゼロショット検出手法を提案する。
論文 参考訳(メタデータ) (2025-06-06T13:23:37Z) - Simplicity by Obfuscation: Evaluating LLM-Driven Code Transformation with Semantic Elasticity [4.458584890504334]
コードの難読化は、リバースエンジニアリングと知的財産の盗難を防ぐことを目的としている。
近年の大規模言語モデルの発展は、様々な分野における実践的応用の道を開いた。
この研究は、LLMがPythonのソースコードを難読化する能力について実証的研究を行った。
論文 参考訳(メタデータ) (2025-04-18T18:29:23Z) - ObscuraCoder: Powering Efficient Code LM Pre-Training Via Obfuscation Grounding [60.37988508851391]
言語モデル(LM)は、コード記述ツールボックスのベースとなっている。
Code-LMの事前学習目標の変更を探求する研究は、データ効率の向上と構文とセマンティクスの相互接続性の向上を目的としており、顕著に不十分である。
本研究では,Code-LMが表面的な構文を超越し,事前学習したサンプルの効率を高めるために,難読化コードの基盤について検討する。
論文 参考訳(メタデータ) (2025-03-27T23:08:53Z) - Memorize or Generalize? Evaluating LLM Code Generation with Code Rewriting [54.48306552577881]
大規模な言語モデル(LLM)は、主にメモリ化(トレーニングデータの大きな部分を複製または再利用する)と一般化(Generalization)を併用している、と我々は主張する。
既存の評価は、表面/構造的類似性を無視し、繰り返しコードの良質な再利用を有害なリコールと記憶タスクの正しさで混同する。
そこで我々は,2つの信号を組み合わせた正規化スコアである覚書リスク指標(MRI)を提案する。 (i) モデルが元の地平解とどのように類似しているか, (ii) 元のタスクから書き換えされたタスクにどの程度の性能が低下するか。
論文 参考訳(メタデータ) (2025-03-04T05:39:24Z) - Fine-Tuning LLMs for Code Mutation: A New Era of Cyber Threats [0.9208007322096533]
本稿では,コード変異の文脈におけるLarge Language Modelsの適用について検討する。
伝統的に、ミッションクリティカルなアプリケーションにおいて、ソフトウェアの堅牢性を高めるためにコード突然変異が使われてきた。
事前学習したLLMベースのコードシンセサイザーに適したコード突然変異訓練の新たな定義を提案する。
論文 参考訳(メタデータ) (2024-10-29T17:43:06Z) - Code Prompting Elicits Conditional Reasoning Abilities in Text+Code LLMs [65.2379940117181]
自然言語の問題をコードに変換する一連のプロンプトであるコードプロンプトを導入します。
コードプロンプトは複数のLLMに対して高速に向上することがわかった。
GPT 3.5を解析した結果,入力問題のコードフォーマッティングが性能向上に不可欠であることが判明した。
論文 参考訳(メタデータ) (2024-01-18T15:32:24Z) - Zero-Shot Detection of Machine-Generated Codes [83.0342513054389]
本研究は,LLMの生成したコードを検出するためのトレーニング不要な手法を提案する。
既存のトレーニングベースまたはゼロショットテキスト検出装置は、コード検出に効果がないことがわかった。
本手法は,リビジョン攻撃に対する堅牢性を示し,Javaコードによく適応する。
論文 参考訳(メタデータ) (2023-10-08T10:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。