論文の概要: RandMark: On Random Watermarking of Visual Foundation Models
- arxiv url: http://arxiv.org/abs/2603.10695v1
- Date: Wed, 11 Mar 2026 12:08:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.933467
- Title: RandMark: On Random Watermarking of Visual Foundation Models
- Title(参考訳): RandMark: Visual Foundationのモデルのランダムな透かしについて
- Authors: Anna Chistyakova, Mikhail Pautov,
- Abstract要約: 本稿では,視覚基盤モデルのオーナシップ検証へのアプローチを提案する。
提案手法は,非透かしモデルに対する誤検出の確率が低く,透かしモデルに対する誤検出の確率が低い。
- 参考スコア(独自算出の注目度): 3.4969965585473273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Being trained on large and diverse datasets, visual foundation models (VFMs) can be fine-tuned to achieve remarkable performance and efficiency in various downstream computer vision tasks. The high computational cost of data collection and training makes these models valuable assets, which motivates some VFM owners to distribute them alongside a license to protect their intellectual property rights. In this paper, we propose an approach to ownership verification of visual foundation models that leverages a small encoder-decoder network to embed digital watermarks into an internal representation of a hold-out set of input images. The method is based on random watermark embedding, which makes the watermark statistics detectable in functional copies of the watermarked model. Both theoretically and experimentally, we demonstrate that the proposed method yields a low probability of false detection for non-watermarked models and a low probability of false misdetection for watermarked models.
- Abstract(参考訳): 大規模で多様なデータセットでトレーニングされた視覚基礎モデル(VFM)は、さまざまな下流コンピュータビジョンタスクにおいて、優れたパフォーマンスと効率を達成するために微調整することができる。
データ収集とトレーニングの計算コストが高いため、これらのモデルは価値ある資産となり、一部のVFM所有者は知的財産権を保護するためにライセンスとともにそれを配布する動機がある。
本稿では,デジタル透かしを入力画像の保持集合の内部表現に埋め込むために,小さなエンコーダデコーダネットワークを利用する視覚基礎モデルのオーサシップ検証手法を提案する。
この手法はランダムな透かし埋め込みに基づいており、透かしモデルの機能的複製において、透かし統計を検出できるようにする。
理論的にも実験的にも,提案手法は非透かしモデルに対する誤検出の確率が低く,透かしモデルに対する誤検出の確率が低いことを示す。
関連論文リスト
- WMVLM: Evaluating Diffusion Model Image Watermarking via Vision-Language Models [79.32764976020435]
拡散モデルから生成された画像を保護するためには,デジタル透かしが不可欠である。
従来の透かし評価手法では,残余と意味の両方の透かしの統一的な枠組みが欠如していた。
我々は,視覚言語モデルを用いた拡散モデル画像透かしのための最初の統一的・解釈可能な評価フレームワークLMを提案する。
論文 参考訳(メタデータ) (2026-01-29T12:14:32Z) - DeepTracer: Tracing Stolen Model via Deep Coupled Watermarks [14.552367035706283]
本稿では,新しい透かしサンプル構築法と等級結合損失制約を利用する,堅牢な透かしフレームワークDeepTracerを紹介する。
DeepTracerは、ウォーターマークタスクとプライマリタスクとの間に高い結合モデルを持ち込み、敵がメインタスク機能を盗む際に隠れたウォーターマークタスクを学習させる。
モデルオーナシップ検証に使用される透かしキーを精巧に選択して,透かしの信頼性を高める,効果的な透かしサンプルフィルタリング機構を提案する。
論文 参考訳(メタデータ) (2025-11-12T05:06:25Z) - ActiveMark: on watermarking of visual foundation models via massive activations [3.4969965585473273]
VFMの小さな表現層を微調整して視覚基盤モデルのオーナシップ検証を行う手法を提案する。
提案手法は,非透かしモデルの誤検出の確率が低く,透かしモデルの誤検出の確率が低い。
論文 参考訳(メタデータ) (2025-10-06T15:58:27Z) - SleeperMark: Towards Robust Watermark against Fine-Tuning Text-to-image Diffusion Models [77.80595722480074]
SleeperMarkは、回復力のある透かしをT2I拡散モデルに埋め込むように設計されたフレームワークである。
学習したセマンティックな概念から透かし情報を切り離すようモデルに誘導する。
各種拡散モデルにおけるSleeperMarkの有効性について実験を行った。
論文 参考訳(メタデータ) (2024-12-06T08:44:18Z) - TokenMark: A Modality-Agnostic Watermark for Pre-trained Transformers [67.57928750537185]
TokenMarkは、事前訓練されたモデルに対する頑健で、モダリティに依存しない、堅牢な透かしシステムである。
予めトレーニングされたモデルを、特別に置換されたデータサンプルのセットに微調整することで、透かしを埋め込む。
これはモデル透かしの堅牢性、効率、普遍性を著しく改善する。
論文 参考訳(メタデータ) (2024-03-09T08:54:52Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。