論文の概要: Is Watermarking LLM-Generated Code Robust?
- arxiv url: http://arxiv.org/abs/2403.17983v1
- Date: Sun, 24 Mar 2024 21:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 21:24:43.404505
- Title: Is Watermarking LLM-Generated Code Robust?
- Title(参考訳): 透かし LLM 生成コードロバストか?
- Authors: Tarun Suresh, Shubham Ugare, Gagandeep Singh, Sasa Misailovic,
- Abstract要約: 大規模言語モデルにより生成されたPythonコードに対する既存の透かし手法の堅牢性に関する最初の研究について述べる。
セマンティック保存変換により、これらの透かしをコードから取り除くことは容易であることを示す。
- 参考スコア(独自算出の注目度): 5.48277165801539
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the first study of the robustness of existing watermarking techniques on Python code generated by large language models. Although existing works showed that watermarking can be robust for natural language, we show that it is easy to remove these watermarks on code by semantic-preserving transformations.
- Abstract(参考訳): 大規模言語モデルにより生成されたPythonコードに対する既存の透かし手法の堅牢性に関する最初の研究について述べる。
既存の研究は、透かしは自然言語に対して堅牢であることを示したが、意味保存変換によってこれらの透かしをコードから取り除くことは容易であることを示した。
関連論文リスト
- CodeIP: A Grammar-Guided Multi-Bit Watermark for Large Language Models of Code [59.32609948217718]
我々は,Large Language Models(LLM)ベースのコード生成のための新しい透かし技術であるCodeIPを提案する。
CodeIPは、生成されたコードのセマンティクスを保持しながら、マルチビット情報の挿入を可能にする。
論文 参考訳(メタデータ) (2024-04-24T04:25:04Z) - Can Watermarks Survive Translation? On the Cross-lingual Consistency of
Text Watermark for Large Language Models [50.49500726536929]
現在のテキスト透かし技術は、テキストが様々な言語に翻訳されるときの一貫性を欠いている。
透かしを回避するための言語横断型透かし除去攻撃(CWRA)を提案する。
CWRAは、性能を損なわずに、AUC(Area Under the Curve)を0.95から0.67に減らし、ウォーターマークを効果的に除去することができる。
論文 参考訳(メタデータ) (2024-02-21T18:48:38Z) - On the Learnability of Watermarks for Language Models [80.97358663708592]
言語モデルが透かし付きテキストを生成するために直接学習できるかどうかを問う。
本稿では,教師モデルとして振舞う学生モデルを訓練する透かし蒸留法を提案する。
モデルは、高い検出性で透かし付きテキストを生成することができる。
論文 参考訳(メタデータ) (2023-12-07T17:41:44Z) - A Robust Semantics-based Watermark for Large Language Model against Paraphrasing [50.84892876636013]
大規模言語モデル(LLM)は、様々な自然言語処理において優れた能力を示している。
LLMは不適切にも違法にも使用できるという懸念がある。
本稿ではセマンティクスに基づく透かしフレームワークSemaMarkを提案する。
論文 参考訳(メタデータ) (2023-11-15T06:19:02Z) - A Semantic Invariant Robust Watermark for Large Language Models [29.52715060360837]
大規模言語モデル(LLM)に対する意味不変な透かし手法を提案する。
私たちの研究における透かしのロジットは、前のトークンのセマンティクスによって決定されます。
私たちの透かしには適切なセキュリティの堅牢性があることも示しています。
論文 参考訳(メタデータ) (2023-10-10T06:49:43Z) - Undetectable Watermarks for Language Models [1.347733333991357]
本稿では,言語モデルに対する検出不能な透かしの概念を紹介する。
透かしは秘密鍵の知識でのみ検出できます
一方向関数の存在に基づいて検出不能な透かしを構築する。
論文 参考訳(メタデータ) (2023-05-25T02:57:16Z) - Who Wrote this Code? Watermarking for Code Generation [55.54239495289517]
エントロピー閾値(SWEET)を用いた新しい透かし手法Selective WatErmarkingを提案する。
SWEETは、生成中のトークン分布のエントロピーが高い位置にのみ「グリーン」トークンをプロモートすることで、生成されたコードの正確性を維持する。
論文 参考訳(メタデータ) (2023-05-24T11:49:52Z) - Towards Tracing Code Provenance with Code Watermarking [37.41260851333952]
我々は、ビット文字列を変数に隠蔽し、コードの自然的および操作的意味論を尊重する電子透かしシステムであるCodeMarkを提案する。
自然性のために、我々は、グラフニューラルネットワーク上のコンテキストにおいてよりコヒーレントな透かし変数を生成するためのコンテキスト透かし方式を導入する。
CodeMarkは、透かし要求のバランスが良く、SOTA透かしシステムより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-21T13:53:12Z) - A Watermark for Large Language Models [84.95327142027183]
本稿では,プロプライエタリな言語モデルのための透かしフレームワークを提案する。
透かしはテキストの品質に無視できない影響で埋め込むことができる。
言語モデルAPIやパラメータにアクセスすることなく、効率的なオープンソースアルゴリズムを使って検出することができる。
論文 参考訳(メタデータ) (2023-01-24T18:52:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。