論文の概要: RepoMark: A Data-Usage Auditing Framework for Code Large Language Models
- arxiv url: http://arxiv.org/abs/2508.21432v3
- Date: Mon, 03 Nov 2025 02:58:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 14:12:27.952381
- Title: RepoMark: A Data-Usage Auditing Framework for Code Large Language Models
- Title(参考訳): RepoMark: 大規模言語モデルのためのデータ利用監査フレームワーク
- Authors: Wenjie Qu, Yuguang Zhou, Bo Wang, Yuexin Li, Lionel Z. Wang, Jinyuan Jia, Jiaheng Zhang,
- Abstract要約: コードLLMのデータ使用量を監査する新しいデータマーキングフレームワークRepoMarkを提案する。
本手法により, 監査者は, セマンティックな保存を確保しつつ, コードの使用の有無を検証できる。
RepoMarkは、5%の厳格なFDR保証の下で、小さなコードリポジトリで90%以上の検出成功率を達成する。
- 参考スコア(独自算出の注目度): 16.976151053365385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of Large Language Models (LLMs) for code generation has transformed software development by automating coding tasks with unprecedented efficiency. However, the training of these models on open-source code repositories (e.g., from GitHub) raises critical ethical and legal concerns, particularly regarding data authorization and open-source license compliance. Developers are increasingly questioning whether model trainers have obtained proper authorization before using repositories for training, especially given the lack of transparency in data collection. To address these concerns, we propose a novel data marking framework RepoMark to audit the data usage of code LLMs. Our method enables auditors to verify whether their code has been used in training, while ensuring semantic preservation, imperceptibility, and theoretical false detection rate (FDR) guarantees. By generating multiple semantically equivalent code variants, RepoMark introduces data marks into the code files, and during detection, RepoMark leverages a novel ranking-based hypothesis test to detect model behavior difference on trained data. Compared to prior data auditing approaches, RepoMark significantly enhances data efficiency, allowing effective auditing even when the user's repository possesses only a small number of code files. Experiments demonstrate that RepoMark achieves a detection success rate over 90\% on small code repositories under a strict FDR guarantee of 5\%. This represents a significant advancement over existing data marking techniques, all of which only achieve accuracy below 55\% under identical settings. This further validates RepoMark as a robust, theoretically sound, and promising solution for enhancing transparency in code LLM training, which can safeguard the rights of code authors.
- Abstract(参考訳): コード生成のための大規模言語モデル(LLM)の急速な開発は、コーディングタスクを前例のない効率で自動化することによって、ソフトウェア開発を変革した。
しかし、これらのモデルのオープンソースコードリポジトリ(GitHubなど)でのトレーニングは、特にデータ認証とオープンソースライセンスコンプライアンスに関して、重要な倫理的および法的懸念を提起している。
モデルトレーナは、特にデータ収集の透明性の欠如を理由に、トレーニングにレポジトリを使用する前に適切な承認を得たのか、という疑問がますます高まっている。
これらの問題に対処するために,コードLLMのデータ使用状況を評価する新しいデータマーキングフレームワークRepoMarkを提案する。
本手法により, 監査者は, セマンティックな保存, 認識不能, 理論的偽検出率(FDR)の保証を確保しつつ, トレーニングで使用されているかどうかを検証できる。
複数の意味論的に等価なコードバリアントを生成することで、RepoMarkはコードファイルにデータマークを導入し、検出中に、新しいランキングベースの仮説テストを活用して、トレーニングされたデータ上でのモデル動作の違いを検出する。
従来のデータ監査アプローチと比較して、RepoMarkはデータの効率を大幅に向上し、ユーザのリポジトリが少数のコードファイルしか持たなくても効果的な監査を可能にする。
実験によると、RepoMarkは5\%の厳格なFDR保証の下で、小さなコードリポジトリで90%以上の検出成功率を達成する。
これは、既存のデータマーキング技術よりも大幅に進歩し、すべて同じ設定で55%未満の精度しか達成できないことを意味している。
これにより、コード作者の権利を保護できるLLMトレーニングにおける透明性を高めるための堅牢で理論的に健全なソリューションとして、RepoMarkを検証することができる。
関連論文リスト
- VERINA: Benchmarking Verifiable Code Generation [47.9771074559674]
大規模言語モデル(LLM)は、ソフトウェア開発にますます統合されている。
検証可能なコード生成は、この制限に対処するための有望なパスを提供する。
現在のベンチマークでは、エンドツーエンドの検証可能なコード生成がサポートされていないことが多い。
論文 参考訳(メタデータ) (2025-05-29T06:12:52Z) - Think Before You Accept: Semantic Reflective Verification for Faster Speculative Decoding [48.52389201779425]
投機的復号化は、軽量モデルを使用して複数のドラフトトークンを生成し、それらを並列に検証することで推論を加速する。
既存の検証手法は、意味的正確性を見越しながら、分布の整合性に大きく依存している。
我々は,学習自由でセマンティックなアプローチであるリフレクティブ検証を提案し,正確性と効率のトレードオフを改善する。
論文 参考訳(メタデータ) (2025-05-24T10:26:27Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - SWT-Bench: Testing and Validating Real-World Bug-Fixes with Code Agents [10.730852617039451]
ユーザ問題をテストケースに形式化するLLMベースのコードエージェントについて検討する。
我々は人気のあるGitHubリポジトリに基づいた新しいベンチマークを提案し、現実世界の問題、地味なバグフィックス、ゴールデンテストを含む。
コード修復用に設計されたコードエージェントは,テスト生成用に設計されたシステムの性能を上回っている。
論文 参考訳(メタデータ) (2024-06-18T14:54:37Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - RepoAgent: An LLM-Powered Open-Source Framework for Repository-level
Code Documentation Generation [79.83270415843857]
コードドキュメンテーションを積極的に生成、保守、更新することを目的とした、大規模な言語モデルによるオープンソースフレームワークであるRepoAgentを紹介します。
RepoAgentは高品質なリポジトリレベルのドキュメントを生成するのに優れています。
論文 参考訳(メタデータ) (2024-02-26T15:39:52Z) - Trained Without My Consent: Detecting Code Inclusion In Language Models Trained on Code [13.135962181354465]
コード監査は、開発済みのコードが標準、規制、著作権保護に準拠していることを保証する。
ソフトウェア開発プロセスにおけるコーディングアシスタントとしての最近のLarge Language Models(LLM)の出現は、コード監査に新たな課題をもたらしている。
LLMのトレーニングデータセットにコードを含むことを検出するモデルに依存しない、解釈可能な方法であるTraWiCを提案する。
論文 参考訳(メタデータ) (2024-02-14T16:41:35Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。