論文の概要: RepoMark: A Code Usage Auditing Framework for Code Large Language Models
- arxiv url: http://arxiv.org/abs/2508.21432v1
- Date: Fri, 29 Aug 2025 09:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.976106
- Title: RepoMark: A Code Usage Auditing Framework for Code Large Language Models
- Title(参考訳): RepoMark: 大規模言語モデルのためのコード利用監査フレームワーク
- Authors: Wenjie Qu, Yuguang Zhou, Bo Wang, Wengrui Zheng, Yuexin Li, Jinyuan Jia, Jiaheng Zhang,
- Abstract要約: コード生成のための大規模言語モデル(LLM)は、コーディングタスクを前例のない効率で自動化することによって、ソフトウェア開発を変革した。
これらのモデルをオープンソースコードリポジトリ(GitHubなど)でトレーニングすることは、批判的な倫理的および法的懸念を提起する。
コードLLMのデータ使用量を監査する新しいデータマーキングフレームワークRepoMarkを提案する。
- 参考スコア(独自算出の注目度): 17.008725277745686
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid development of Large Language Models (LLMs) for code generation has transformed software development by automating coding tasks with unprecedented efficiency. However, the training of these models on open-source code repositories (e.g., from GitHub) raises critical ethical and legal concerns, particularly regarding data authorization and open-source license compliance. Developers are increasingly questioning whether model trainers have obtained proper authorization before using repositories for training, especially given the lack of transparency in data collection. To address these concerns, we propose a novel data marking framework RepoMark to audit the data usage of code LLMs. Our method enables repository owners to verify whether their code has been used in training, while ensuring semantic preservation, imperceptibility, and theoretical false detection rate (FDR) guarantees. By generating multiple semantically equivalent code variants, RepoMark introduces data marks into the code files, and during detection, RepoMark leverages a novel ranking-based hypothesis test to detect memorization within the model. Compared to prior data auditing approaches, RepoMark significantly enhances sample efficiency, allowing effective auditing even when the user's repository possesses only a small number of code files. Experiments demonstrate that RepoMark achieves a detection success rate over 90\% on small code repositories under a strict FDR guarantee of 5\%. This represents a significant advancement over existing data marking techniques, all of which only achieve accuracy below 55\% under identical settings. This further validates RepoMark as a robust, theoretically sound, and promising solution for enhancing transparency in code LLM training, which can safeguard the rights of repository owners.
- Abstract(参考訳): コード生成のための大規模言語モデル(LLM)の急速な開発は、コーディングタスクを前例のない効率で自動化することによって、ソフトウェア開発を変革した。
しかし、これらのモデルのオープンソースコードリポジトリ(GitHubなど)でのトレーニングは、特にデータ認証とオープンソースライセンスコンプライアンスに関して、重要な倫理的および法的懸念を提起している。
モデルトレーナは、特にデータ収集の透明性の欠如を理由に、トレーニングにレポジトリを使用する前に適切な承認を得たのか、という疑問がますます高まっている。
これらの問題に対処するために,コードLLMのデータ使用状況を評価する新しいデータマーキングフレームワークRepoMarkを提案する。
本手法により, リポジトリ所有者は, 意味的保存, 認識不能性, 理論的偽検出率(FDR)の保証を確保しつつ, コードがトレーニングで使用されているかどうかを検証できる。
複数の意味論的に等価なコードバリアントを生成することで、RepoMarkはコードファイルにデータマークを導入し、検出時に、新しいランキングベースの仮説テストを活用して、モデル内の記憶を検出する。
以前のデータ監査アプローチと比較して、RepoMarkはサンプル効率を大幅に向上し、ユーザのリポジトリが少数のコードファイルしか持たない場合でも効果的な監査を可能にする。
実験によると、RepoMarkは5\%の厳格なFDR保証の下で、小さなコードリポジトリで90%以上の検出成功率を達成する。
これは、既存のデータマーキング技術よりも大幅に進歩し、すべて同じ設定で55%未満の精度しか達成できないことを意味している。
これにより、リポジトリ所有者の権利を保護できるコードLLMトレーニングにおける透明性を高めるための、堅牢で理論的に健全で有望なソリューションとして、RepoMarkが検証される。
関連論文リスト
- VERINA: Benchmarking Verifiable Code Generation [47.9771074559674]
大規模言語モデル(LLM)は、ソフトウェア開発にますます統合されている。
検証可能なコード生成は、この制限に対処するための有望なパスを提供する。
現在のベンチマークでは、エンドツーエンドの検証可能なコード生成がサポートされていないことが多い。
論文 参考訳(メタデータ) (2025-05-29T06:12:52Z) - Think Before You Accept: Semantic Reflective Verification for Faster Speculative Decoding [48.52389201779425]
投機的復号化は、軽量モデルを使用して複数のドラフトトークンを生成し、それらを並列に検証することで推論を加速する。
既存の検証手法は、意味的正確性を見越しながら、分布の整合性に大きく依存している。
我々は,学習自由でセマンティックなアプローチであるリフレクティブ検証を提案し,正確性と効率のトレードオフを改善する。
論文 参考訳(メタデータ) (2025-05-24T10:26:27Z) - HexaCoder: Secure Code Generation via Oracle-Guided Synthetic Training Data [60.75578581719921]
大規模言語モデル(LLM)は、自動コード生成に大きな可能性を示している。
最近の研究は、多くのLLM生成コードが深刻なセキュリティ脆弱性を含んでいることを強調している。
我々は,LLMがセキュアなコードを生成する能力を高めるための新しいアプローチであるHexaCoderを紹介する。
論文 参考訳(メタデータ) (2024-09-10T12:01:43Z) - SWT-Bench: Testing and Validating Real-World Bug-Fixes with Code Agents [10.730852617039451]
ユーザ問題をテストケースに形式化するLLMベースのコードエージェントについて検討する。
我々は人気のあるGitHubリポジトリに基づいた新しいベンチマークを提案し、現実世界の問題、地味なバグフィックス、ゴールデンテストを含む。
コード修復用に設計されたコードエージェントは,テスト生成用に設計されたシステムの性能を上回っている。
論文 参考訳(メタデータ) (2024-06-18T14:54:37Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保持するために追加情報を挿入する。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - RepoAgent: An LLM-Powered Open-Source Framework for Repository-level
Code Documentation Generation [79.83270415843857]
コードドキュメンテーションを積極的に生成、保守、更新することを目的とした、大規模な言語モデルによるオープンソースフレームワークであるRepoAgentを紹介します。
RepoAgentは高品質なリポジトリレベルのドキュメントを生成するのに優れています。
論文 参考訳(メタデータ) (2024-02-26T15:39:52Z) - Trained Without My Consent: Detecting Code Inclusion In Language Models Trained on Code [13.135962181354465]
コード監査は、開発済みのコードが標準、規制、著作権保護に準拠していることを保証する。
ソフトウェア開発プロセスにおけるコーディングアシスタントとしての最近のLarge Language Models(LLM)の出現は、コード監査に新たな課題をもたらしている。
LLMのトレーニングデータセットにコードを含むことを検出するモデルに依存しない、解釈可能な方法であるTraWiCを提案する。
論文 参考訳(メタデータ) (2024-02-14T16:41:35Z) - RepoCoder: Repository-Level Code Completion Through Iterative Retrieval
and Generation [96.75695811963242]
RepoCoderはリポジトリレベルのコード補完プロセスを合理化するフレームワークである。
類似性ベースのレトリバーと、事前訓練されたコード言語モデルが組み込まれている。
バニラ検索で拡張されたコード補完アプローチよりも一貫して優れています。
論文 参考訳(メタデータ) (2023-03-22T13:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。