論文の概要: ActiveMark: on watermarking of visual foundation models via massive activations
- arxiv url: http://arxiv.org/abs/2510.04966v1
- Date: Mon, 06 Oct 2025 15:58:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.96916
- Title: ActiveMark: on watermarking of visual foundation models via massive activations
- Title(参考訳): ActiveMark: 大量活性化による視覚基礎モデルの透かしについて
- Authors: Anna Chistyakova, Mikhail Pautov,
- Abstract要約: VFMの小さな表現層を微調整して視覚基盤モデルのオーナシップ検証を行う手法を提案する。
提案手法は,非透かしモデルの誤検出の確率が低く,透かしモデルの誤検出の確率が低い。
- 参考スコア(独自算出の注目度): 3.4969965585473273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being trained on large and vast datasets, visual foundation models (VFMs) can be fine-tuned for diverse downstream tasks, achieving remarkable performance and efficiency in various computer vision applications. The high computation cost of data collection and training motivates the owners of some VFMs to distribute them alongside the license to protect their intellectual property rights. However, a dishonest user of the protected model's copy may illegally redistribute it, for example, to make a profit. As a consequence, the development of reliable ownership verification tools is of great importance today, since such methods can be used to differentiate between a redistributed copy of the protected model and an independent model. In this paper, we propose an approach to ownership verification of visual foundation models by fine-tuning a small set of expressive layers of a VFM along with a small encoder-decoder network to embed digital watermarks into an internal representation of a hold-out set of input images. Importantly, the watermarks embedded remain detectable in the functional copies of the protected model, obtained, for example, by fine-tuning the VFM for a particular downstream task. Theoretically and experimentally, we demonstrate that the proposed method yields a low probability of false detection of a non-watermarked model and a low probability of false misdetection of a watermarked model.
- Abstract(参考訳): 大規模で広大なデータセットでトレーニングされた視覚基盤モデル(VFM)は、さまざまな下流タスクのために微調整され、様々なコンピュータビジョンアプリケーションで顕著なパフォーマンスと効率を達成することができる。
データ収集とトレーニングの高い計算コストは、一部のVFMの所有者が、知的財産権を保護するためにライセンスとともにそれを配布する動機となっている。
しかし、保護されたモデルのコピーの不正使用者は、例えば利益を得るために違法に再配布する可能性がある。
結果として、保護されたモデルの再配布コピーと独立したモデルとを区別するために、信頼性の高いオーナシップ検証ツールの開発が重要になっている。
本稿では,VFMの表現層を小さなエンコーダデコーダネットワークとともに微調整し,デジタル透かしを入力画像の保持集合の内部表現に埋め込むことにより,視覚基盤モデルのオーサシップ検証手法を提案する。
重要なのは、特定の下流タスクのためにVFMを微調整することで、保護されたモデルの機能コピーに埋め込まれた透かしが検出可能であることだ。
理論的,実験的に,提案手法は非透かしモデルの誤検出確率が低く,透かしモデルの誤検出確率が低いことを示す。
関連論文リスト
- Harnessing Frequency Spectrum Insights for Image Copyright Protection Against Diffusion Models [26.821064889438777]
本稿では,拡散生成画像がトレーニングデータの統計的特性を忠実に保存していることを示す。
emphCoprGuardは、許可されていない画像の使用を防ぐための堅牢な周波数領域透かしフレームワークである。
論文 参考訳(メタデータ) (2025-03-14T04:27:50Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計されたフレームワークである。
学習したセマンティックな概念から透かし情報を切り離すようモデルに誘導する。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - EnTruth: Enhancing the Traceability of Unauthorized Dataset Usage in Text-to-image Diffusion Models with Minimal and Robust Alterations [73.94175015918059]
本稿では、未承認のデータセット使用のトレーサビリティを高める新しいアプローチであるEnTruthを紹介する。
テンプレートの暗記を戦略的に取り入れることで、EnTruthは不正なモデルの特定の振る舞いを侵害の証拠として引き起こすことができる。
本手法は, 暗記の正当性を調査し, 著作権保護に利用し, 呪いを祝福する最初の方法である。
論文 参考訳(メタデータ) (2024-06-20T02:02:44Z) - AquaLoRA: Toward White-box Protection for Customized Stable Diffusion Models via Watermark LoRA [67.68750063537482]
拡散モデルは高品質な画像の生成において顕著な成功を収めた。
最近の研究は、SDモデルがポストホック法医学のための透かし付きコンテンツを出力できるようにすることを目的としている。
このシナリオにおける最初の実装としてtextttmethod を提案する。
論文 参考訳(メタデータ) (2024-05-18T01:25:47Z) - Probabilistically Robust Watermarking of Neural Networks [4.332441337407564]
我々は、攻撃を盗む機能に対するレジリエンスを示す新しいトリガーセットベースの透かし手法を導入する。
私たちのアプローチでは、追加のモデルトレーニングは必要とせず、どんなモデルアーキテクチャにも適用できます。
論文 参考訳(メタデータ) (2024-01-16T10:32:13Z) - Watermarking for Out-of-distribution Detection [76.20630986010114]
Out-of-Distribution (OOD) 検出は、よく訓練された深層モデルから抽出された表現に基づいてOODデータを識別することを目的としている。
本稿では,透かしという一般的な手法を提案する。
我々は,元データの特徴に重畳される統一パターンを学習し,ウォーターマーキング後にモデルの検出能力が大きく向上する。
論文 参考訳(メタデータ) (2022-10-27T06:12:32Z) - DeepHider: A Multi-module and Invisibility Watermarking Scheme for
Language Model [0.0]
本稿では,モデル分類モジュールを置換し,モデル全体の微調整を行う新たな脅威を提案する。
私たちは、盗難の所有権ステートメントを防ぐために、タンパー保護やトレーサビリティといったブロックチェーンの特性を使用します。
実験の結果,提案手法は100%の透かし検証精度でオーナシップの検証に成功した。
論文 参考訳(メタデータ) (2022-08-09T11:53:24Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。