論文の概要: Towards Tracing Code Provenance with Code Watermarking
- arxiv url: http://arxiv.org/abs/2305.12461v1
- Date: Sun, 21 May 2023 13:53:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 08:02:17.798409
- Title: Towards Tracing Code Provenance with Code Watermarking
- Title(参考訳): コード透かしによるコード検出に向けて
- Authors: Wei Li, Borui Yang, Yujie Sun, Suyu Chen, Ziyun Song, Liyao Xiang,
Xinbing Wang, Chenghu Zhou
- Abstract要約: 我々は、ビット文字列を変数に隠蔽し、コードの自然的および操作的意味論を尊重する電子透かしシステムであるCodeMarkを提案する。
自然性のために、我々は、グラフニューラルネットワーク上のコンテキストにおいてよりコヒーレントな透かし変数を生成するためのコンテキスト透かし方式を導入する。
CodeMarkは、透かし要求のバランスが良く、SOTA透かしシステムより優れていることを示す。
- 参考スコア(独自算出の注目度): 37.41260851333952
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent advances in large language models have raised wide concern in
generating abundant plausible source code without scrutiny, and thus tracing
the provenance of code emerges as a critical issue. To solve the issue, we
propose CodeMark, a watermarking system that hides bit strings into variables
respecting the natural and operational semantics of the code. For naturalness,
we novelly introduce a contextual watermarking scheme to generate watermarked
variables more coherent in the context atop graph neural networks. Each
variable is treated as a node on the graph and the node feature gathers
neighborhood (context) information through learning. Watermarks embedded into
the features are thus reflected not only by the variables but also by the local
contexts. We further introduce a pre-trained model on source code as a teacher
to guide more natural variable generation. Throughout the embedding, the
operational semantics are preserved as only variable names are altered. Beyond
guaranteeing code-specific properties, CodeMark is superior in watermarking
accuracy, capacity, and efficiency due to a more diversified pattern generated.
Experimental results show CodeMark outperforms the SOTA watermarking systems
with a better balance of the watermarking requirements.
- Abstract(参考訳): 大規模言語モデルの最近の進歩は、精査なしに十分な可読性のあるソースコードを生成することに対する大きな懸念を提起している。
この問題を解決するために,コードの自然的および操作的意味論を尊重する変数にビット文字列を隠蔽する透かしシステムであるCodeMarkを提案する。
自然性については,グラフニューラルネットワーク上のコンテキストにおいてより一貫性のある透かし変数を生成するためのコンテキスト透かし方式を新たに導入する。
各変数はグラフ上のノードとして扱われ、ノード機能は学習を通じて近傍(コンテキスト)情報を収集する。
したがって、機能に埋め込まれたウォーターマークは変数だけでなく、ローカルコンテキストによっても反映される。
さらに、より自然な変数生成を導くための教師として、ソースコードの事前学習モデルを導入する。
埋め込みを通して、操作意味論は変数名のみを変更して保存される。
コード固有のプロパティの保証以外にも、CodeMarkはより多様化したパターンを生成するため、ウォーターマークの精度、キャパシティ、効率性が優れている。
実験結果から,CodeMarkは透かし要求のバランスが良く,SOTA透かしシステムよりも優れていた。
関連論文リスト
- Beyond Dataset Watermarking: Model-Level Copyright Protection for Code Summarization Models [37.817691840557984]
CSMは、許可されていないユーザによる搾取のリスクに直面します。
伝統的な透かし法はトリガーと透かしの特徴を別々に設計する必要がある。
モデルレベルの新しい電子透かし埋め込み方式であるModMarkを提案する。
論文 参考訳(メタデータ) (2024-10-18T00:48:00Z) - Watermarking Language Models with Error Correcting Codes [41.21656847672627]
本稿では,誤り訂正符号を用いて統計的信号を符号化する透かしフレームワークを提案する。
提案手法は,ロバスト二元符号 (RBC) 透かしと呼ばれ,元の確率分布に比較して歪みは生じない。
私たちの経験的発見は、私たちの透かしは速く、強力で、堅牢であり、最先端のものと好意的に比較していることを示唆しています。
論文 参考訳(メタデータ) (2024-06-12T05:13:09Z) - CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [56.019447113206006]
大規模言語モデル(LLM)はコード生成において顕著な進歩を遂げた。
CodeIPは、新しいマルチビット透かし技術で、出所の詳細を保存するために追加情報を埋め込む。
5つのプログラミング言語にまたがる実世界のデータセットで実施された実験は、CodeIPの有効性を実証している。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Token-Specific Watermarking with Enhanced Detectability and Semantic Coherence for Large Language Models [31.062753031312006]
大規模言語モデルは、潜在的な誤報を伴う高品質な応答を生成する。
ウォーターマーキングは、テキストに隠れたマーカーを埋め込むことによって、この文脈において重要な意味を持つ。
ウォーターマーキングのための新しい多目的最適化(MOO)手法を提案する。
本手法は,検出性と意味的整合性を同時に達成する。
論文 参考訳(メタデータ) (2024-02-28T05:43:22Z) - Improving the Generation Quality of Watermarked Large Language Models
via Word Importance Scoring [81.62249424226084]
トークンレベルの透かしは、トークン確率分布を変更して生成されたテキストに透かしを挿入する。
この透かしアルゴリズムは、生成中のロジットを変化させ、劣化したテキストの品質につながる可能性がある。
We propose to improve the quality of texts generated by a watermarked language model by Watermarking with Importance Scoring (WIS)。
論文 参考訳(メタデータ) (2023-11-16T08:36:00Z) - A Resilient and Accessible Distribution-Preserving Watermark for Large Language Models [65.40460716619772]
本研究は,textbfDistribution-textbf Preserving (DiP)ウォーターマークの重要性に焦点をあてる。
現在の戦略とは対照的に,提案したDiPmarkは透かし中に元のトークン分布を同時に保存する。
言語モデルAPIにアクセスせずに検出可能で(アクセス可能)、トークンの適度な変更に対して確実に堅牢である。
論文 参考訳(メタデータ) (2023-10-11T17:57:35Z) - Who Wrote this Code? Watermarking for Code Generation [53.24895162874416]
本稿では,機械生成テキストを検出するために,Entropy Thresholding (SWEET) を用いたSelective WatErmarkingを提案する。
実験の結果,SWEETはコード品質を著しく向上し,すべてのベースラインを上回ります。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Contrastive Code Representation Learning [95.86686147053958]
一般的な再構成に基づくBERTモデルは,ソースコードの編集に敏感であることを示す。
コントラコード(ContraCode)は、コード機能を学ぶのにフォームではなく、コントラスト的な事前学習タスクである。
論文 参考訳(メタデータ) (2020-07-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。