論文の概要: EmMark: Robust Watermarks for IP Protection of Embedded Quantized Large
Language Models
- arxiv url: http://arxiv.org/abs/2402.17938v1
- Date: Tue, 27 Feb 2024 23:30:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:56:33.518080
- Title: EmMark: Robust Watermarks for IP Protection of Embedded Quantized Large
Language Models
- Title(参考訳): EmMark: 組み込み量子化大規模言語モデルのIP保護のためのロバストな透かし
- Authors: Ruisi Zhang, Farinaz Koushanfar
- Abstract要約: 本稿では,リソース制約されたエッジデバイス上に展開された組み込み大言語モデルの知的財産権(IP)を保護するための新しい透かしフレームワークであるEmMarkを紹介する。
悪意のあるエンドユーザーによって引き起こされるIP盗難のリスクに対処するため、EmMarkは、所有者がウォーターマークされたモデルの重みを問い合わせ、挿入されたシグネチャをマッチングすることで、所有権を認証することを可能にする。
- 参考スコア(独自算出の注目度): 21.28690053570814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces EmMark,a novel watermarking framework for protecting
the intellectual property (IP) of embedded large language models deployed on
resource-constrained edge devices. To address the IP theft risks posed by
malicious end-users, EmMark enables proprietors to authenticate ownership by
querying the watermarked model weights and matching the inserted signatures.
EmMark's novelty lies in its strategic watermark weight parameters selection,
nsuring robustness and maintaining model quality. Extensive proof-of-concept
evaluations of models from OPT and LLaMA-2 families demonstrate EmMark's
fidelity, achieving 100% success in watermark extraction with model performance
preservation. EmMark also showcased its resilience against watermark removal
and forging attacks.
- Abstract(参考訳): 本稿では,リソース制約されたエッジデバイス上に展開された組み込み大言語モデルの知的財産権(IP)を保護するための新しい透かしフレームワークであるEmMarkを紹介する。
悪意のあるエンドユーザによるip盗難リスクに対処するため、emmarkでは、ウォーターマーク付きモデル重みをクエリし、挿入されたシグネチャにマッチさせることで、所有者が所有権を認証できるようにする。
EmMarkの斬新さは、戦略的なウォーターマーク重みパラメータの選択、堅牢性の向上、モデル品質の維持にある。
optおよびllama-2ファミリーのモデルの広範な概念実証評価は、emmarkの忠実性を示し、モデル性能保存によるウォーターマーク抽出に100%成功している。
EmMarkは、透かし除去と鍛造攻撃に対するレジリエンスも披露した。
関連論文リスト
- Adaptive and robust watermark against model extraction attack [0.0]
大規模言語モデル(LLM)は、さまざまな機械学習タスクにまたがる汎用インテリジェンスを示す。
敵はモデル抽出攻撃を利用して モデル生成で符号化された モデルインテリジェンスを盗むことができる
ウォーターマーキング技術は、モデル生成コンテンツにユニークな識別子を埋め込むことによって、このような攻撃を防御する有望なソリューションを提供する。
論文 参考訳(メタデータ) (2024-05-03T06:41:48Z) - ICMarks: A Robust Watermarking Framework for Integrated Circuit Physical Design IP Protection [19.359996725500512]
ICMarksは、最新のIC物理設計のための品質保存および堅牢な透かしフレームワークである。
ICMarksは、有線長とタイミングメトリクスの劣化を伴わず、オーナシップの証明に成功している。
論文 参考訳(メタデータ) (2024-04-29T03:52:53Z) - TrustMark: Universal Watermarking for Arbitrary Resolution Images [21.74309490023683]
非受容性デジタル透かしは著作権保護、誤情報防止および責任ある生成GANにおいて重要である。
本稿では,新しい設計のアーキテクチャを用いたGANベースの透かし手法を提案し,透かし除去法であるTrustMark-RMを提案する。
本手法は任意の符号化画像からなる3つのベンチマーク上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-30T07:03:36Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - A Resilient and Accessible Distribution-Preserving Watermark for Large Language Models [65.40460716619772]
本研究は,textbfDistribution-textbf Preserving (DiP)ウォーターマークの重要性に焦点をあてる。
現在の戦略とは対照的に,提案したDiPmarkは透かし中に元のトークン分布を同時に保存する。
言語モデルAPIにアクセスせずに検出可能で(アクセス可能)、トークンの適度な変更に対して確実に堅牢である。
論文 参考訳(メタデータ) (2023-10-11T17:57:35Z) - Unbiased Watermark for Large Language Models [67.43415395591221]
本研究では, モデル生成出力の品質に及ぼす透かしの影響について検討した。
出力確率分布に影響を与えることなく、透かしを統合することができる。
ウォーターマークの存在は、下流タスクにおけるモデルの性能を損なうものではない。
論文 参考訳(メタデータ) (2023-09-22T12:46:38Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - A Systematic Review on Model Watermarking for Neural Networks [1.2691047660244335]
この研究は、機械学習モデルのための異なるクラスの透かしスキームを特定し解析する分類法を提案する。
これは、構造化推論を可能にする統一的な脅威モデルを導入し、ウォーターマーキング手法の有効性の比較を行う。
望ましいセキュリティ要件とMLモデルの透かしに対する攻撃を体系化する。
論文 参考訳(メタデータ) (2020-09-25T12:03:02Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。