論文の概要: Invariant-based Robust Weights Watermark for Large Language Models
- arxiv url: http://arxiv.org/abs/2507.08288v1
- Date: Fri, 11 Jul 2025 03:24:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.236371
- Title: Invariant-based Robust Weights Watermark for Large Language Models
- Title(参考訳): Invariant-based Robust Weights Watermarks Large Language Models
- Authors: Qingxiao Guo, Xinjie Zhu, Yilong Ma, Hui Jin, Yunhao Wang, Weifeng Zhang, Xiaobing Guo,
- Abstract要約: 本稿では,トランスモデルの再学習や微調整を伴わない頑健な透かし方式を提案する。
このスキームは、ユーザ毎にユニークなキーを生成し、安定した透かし値を導出する。
この技術は、マルチユーザシナリオにおける透かし位置を衝突攻撃に対して隠蔽するためにノイズ機構を利用する。
- 参考スコア(独自算出の注目度): 7.80619681921019
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Watermarking technology has gained significant attention due to the increasing importance of intellectual property (IP) rights, particularly with the growing deployment of large language models (LLMs) on billions resource-constrained edge devices. To counter the potential threats of IP theft by malicious users, this paper introduces a robust watermarking scheme without retraining or fine-tuning for transformer models. The scheme generates a unique key for each user and derives a stable watermark value by solving linear constraints constructed from model invariants. Moreover, this technology utilizes noise mechanism to hide watermark locations in multi-user scenarios against collusion attack. This paper evaluates the approach on three popular models (Llama3, Phi3, Gemma), and the experimental results confirm the strong robustness across a range of attack methods (fine-tuning, pruning, quantization, permutation, scaling, reversible matrix and collusion attacks).
- Abstract(参考訳): ウォーターマーキング技術は、知的財産権(IP)の権利の重要性の高まり、特に数十億のリソース制約されたエッジデバイスへの大規模言語モデル(LLM)の展開の増加により、大きな注目を集めている。
悪意のあるユーザによるIP盗難の潜在的な脅威に対処するために,トランスフォーマーモデルの再トレーニングや微調整を行うことなく,堅牢な透かし方式を導入する。
このスキームはユーザ毎にユニークなキーを生成し、モデル不変量から構築された線形制約を解き、安定した透かし値を導出する。
さらに,この技術は,マルチユーザシナリオにおける透かし位置を衝突攻撃に対して隠蔽するためにノイズ機構を利用する。
本稿では,3つの人気モデル (Llama3, Phi3, Gemma) に対するアプローチを評価し, 実験結果から, 様々な攻撃方法(微調整, 刈り取り, 量子化, 置換, スケーリング, 可逆行列, 衝突攻撃)における強靭性を検証した。
関連論文リスト
- Hot-Swap MarkBoard: An Efficient Black-box Watermarking Approach for Large-scale Model Distribution [14.60627694687767]
本稿では,効率的な透かし手法であるHot-Swap MarkBoardを提案する。
ユーザ固有の$n$-bitバイナリシグネチャを、独立して複数の透かしを埋め込むことでエンコードする。
この方法はブラックボックス検証をサポートし、様々なモデルアーキテクチャと互換性がある。
論文 参考訳(メタデータ) (2025-07-28T09:14:21Z) - TriniMark: A Robust Generative Speech Watermarking Method for Trinity-Level Attribution [3.1682080884953736]
本稿では,生成したコンテンツを認証するための生成的textbfspeech wattextbfermarking法(TriniMark)を提案する。
まず、音声の時間領域特徴に透かしを埋め込む構造軽量透かしエンコーダを設計する。
ビットワイドウォーターマーク回復のためのウォーターマーク復号器において、時間対応ゲート畳み込みネットワークを巧みに設計する。
論文 参考訳(メタデータ) (2025-04-29T08:23:28Z) - Gaussian Shading++: Rethinking the Realistic Deployment Challenge of Performance-Lossless Image Watermark for Diffusion Models [66.54457339638004]
著作権保護と不適切なコンテンツ生成は、拡散モデルの実装に課題をもたらす。
本研究では,実世界の展開に適した拡散モデル透かし手法を提案する。
Gaussian Shading++はパフォーマンスのロスレス性を維持するだけでなく、ロバスト性の観点からも既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-04-21T11:18:16Z) - Watermarking Recommender Systems [52.207721219147814]
本稿では,レコメンダシステムに特化した新しい手法であるAutoregressive Out-of-Distribution Watermarking (AOW)を紹介する。
提案手法では,初期項目の選択とオラクルモデルによるクエリを行い,その後に予測スコアの小さい項目を選択する。
透かしの有効性を評価するため、このモデルでは、切り捨てられた透かしシーケンスが与えられた後続の項目を予測することを課題とする。
論文 参考訳(メタデータ) (2024-07-17T06:51:24Z) - ModelShield: Adaptive and Robust Watermark against Model Extraction Attack [58.46326901858431]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - 3D Face Modeling via Weakly-supervised Disentanglement Network joint Identity-consistency Prior [62.80458034704989]
切り離された制御因子を特徴とする3次元顔モデルの生成は、コンピュータビジョンやコンピュータグラフィックスの多様な応用において大きな可能性を秘めている。
従来の3D顔モデリング手法は、これらの要因を効果的に解消するために特定のラベルを要求するため、課題に直面している。
本稿では,WSDF(Wakly Supervised Disentanglement Framework)を導入し,過度に拘束的なラベル付けを必要とせず,制御可能な3次元顔モデルのトレーニングを容易にする。
論文 参考訳(メタデータ) (2024-04-25T11:50:47Z) - Functional Invariants to Watermark Large Transformers [30.598259061227594]
トランスフォーマーベースのモデルの急速な成長は、その完全性と所有権保険に対する懸念を高める。
Watermarkingはモデルにユニークな識別子を埋め込むことでこの問題に対処し、その性能を保っている。
本稿では,非盲点ホワイトボックス設定に適用可能な計算コストのない透かしについて検討する。
論文 参考訳(メタデータ) (2023-10-17T17:56:18Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Reversible Quantization Index Modulation for Static Deep Neural Network
Watermarking [57.96787187733302]
可逆的データ隠蔽法(RDH)は潜在的な解決策を提供するが、既存のアプローチはユーザビリティ、キャパシティ、忠実性の面で弱点に悩まされている。
量子化指数変調(QIM)を用いたRDHに基づく静的DNN透かし手法を提案する。
提案手法は,透かし埋め込みのための1次元量化器に基づく新しい手法を取り入れたものである。
論文 参考訳(メタデータ) (2023-05-29T04:39:17Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。