論文の概要: Disrupting Style Mimicry Attacks on Video Imagery
- arxiv url: http://arxiv.org/abs/2405.06865v1
- Date: Sat, 11 May 2024 01:40:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-14 19:44:41.622967
- Title: Disrupting Style Mimicry Attacks on Video Imagery
- Title(参考訳): 動画の破壊スタイルのミミリーアタック
- Authors: Josephine Passananti, Stanley Wu, Shawn Shan, Haitao Zheng, Ben Y. Zhao,
- Abstract要約: 本稿では,映像におけるスタイルの模倣を妨害する手法について検討する。
まず、ビデオから抽出した個々のフレームをトレーニングすることで、模倣攻撃が成功することを示す。
フレームレベルの類似性に基づいて,映像を短いシーンに分割する,ツールに依存しない新しいフレームワークを開発した。
- 参考スコア(独自算出の注目度): 27.170071784028472
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative AI models are often used to perform mimicry attacks, where a pretrained model is fine-tuned on a small sample of images to learn to mimic a specific artist of interest. While researchers have introduced multiple anti-mimicry protection tools (Mist, Glaze, Anti-Dreambooth), recent evidence points to a growing trend of mimicry models using videos as sources of training data. This paper presents our experiences exploring techniques to disrupt style mimicry on video imagery. We first validate that mimicry attacks can succeed by training on individual frames extracted from videos. We show that while anti-mimicry tools can offer protection when applied to individual frames, this approach is vulnerable to an adaptive countermeasure that removes protection by exploiting randomness in optimization results of consecutive (nearly-identical) frames. We develop a new, tool-agnostic framework that segments videos into short scenes based on frame-level similarity, and use a per-scene optimization baseline to remove inter-frame randomization while reducing computational cost. We show via both image level metrics and an end-to-end user study that the resulting protection restores protection against mimicry (including the countermeasure). Finally, we develop another adaptive countermeasure and find that it falls short against our framework.
- Abstract(参考訳): 生成AIモデルは、しばしば模倣攻撃の実行に使用される。そこでは、訓練済みのモデルを小さな画像のサンプルに微調整して、特定の興味のあるアーティストを模倣することを学ぶ。
研究者たちは、複数の反ミリ波保護ツール(ミスト、グレーズ、アンチダンボス)を導入しているが、最近の証拠は、ビデオをトレーニングデータ源とする模倣モデルの増加傾向を示している。
本稿では,映像におけるスタイルの模倣を妨害する手法を探求した経験について述べる。
まず、ビデオから抽出した個々のフレームをトレーニングすることで、模倣攻撃が成功することを示す。
本手法は, 各フレームに適用した場合に保護を提供することができるが, 連続したフレームの最適化結果において, ランダム性を利用して保護を除去する適応的対策に脆弱であることを示す。
我々は,フレームレベルの類似性に基づいて映像を短いシーンに分割するツールに依存しない新しいフレームワークを開発し,シーンごとの最適化ベースラインを用いて,フレーム間のランダム化を解消し,計算コストを削減した。
画像レベルの指標とエンド・ツー・エンドのユーザ・スタディを通じて、結果の保護が模倣(対策を含む)に対する保護を回復することを示す。
最後に、適応的な対策を開発し、それが我々のフレームワークに反するものであることを確かめる。
関連論文リスト
- Multimodal Unlearnable Examples: Protecting Data against Multimodal Contrastive Learning [53.766434746801366]
マルチモーダル・コントラッシブ・ラーニング (MCL) は、インターネットから何百万ものイメージ・キャプション・ペアから学習することで、ゼロショット分類において顕著な進歩を見せている。
ハッカーは、個人やプライバシーに敏感な情報を含む、モデルトレーニングのために画像テキストデータを不正に活用する可能性がある。
近年の研究では、保護のためのショートカットを構築するための訓練画像に知覚不能な摂動を加えることで、学習不可能な例を生成することを提案する。
マルチステップ誤り最小化(MEM)を提案する。
論文 参考訳(メタデータ) (2024-07-23T09:00:52Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Breaking Free: How to Hack Safety Guardrails in Black-Box Diffusion Models! [52.0855711767075]
EvoSeedは、フォトリアリスティックな自然対向サンプルを生成するための進化戦略に基づくアルゴリズムフレームワークである。
我々は,CMA-ESを用いて初期種ベクトルの探索を最適化し,条件付き拡散モデルで処理すると,自然逆数サンプルをモデルで誤分類する。
実験の結果, 生成した対向画像は画像品質が高く, 安全分類器を通過させることで有害なコンテンツを生成する懸念が高まっていることがわかった。
論文 参考訳(メタデータ) (2024-02-07T09:39:29Z) - Semi-Supervised learning for Face Anti-Spoofing using Apex frame [5.31652803716288]
頂点フレームは、ビデオの中央フレームを中心にしたガウス分布を用いて重み付けされたフレームの和を計算することによって、ビデオから導出される。
これにより、ラベル付きおよびラベルなしの頂点フレームの両方を考慮した半教師付き学習の利点を活用し、ライブクラスとスプーフクラスを効果的に識別する。
4つの顔アンチスプーフィングデータベースを用いた実験結果から,顔アンチスプーフィング技術の進歩における頂点フレームの有効性が示された。
論文 参考訳(メタデータ) (2023-09-10T08:14:41Z) - Robustification of Segmentation Models Against Adversarial Perturbations
In Medical Imaging [10.078691267089075]
我々のフレームワークは周波数領域変換器、検出器、改質器で構成されている。
提案手法は既存の防御方式と比較して性能が良いことを実証的に示す実験を行っている。
論文 参考訳(メタデータ) (2020-09-23T12:18:05Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Uncertainty-Aware Weakly Supervised Action Detection from Untrimmed
Videos [82.02074241700728]
本稿では,ビデオフレームラベルのみを用いてトレーニングした,禁止レベルの行動認識モデルを提案する。
人1人当たりの手法は、複数のインスタンス学習フレームワーク内の大規模な画像データセットで訓練されている。
標準的な多重インスタンス学習の仮定では、各バッグには、指定されたラベルを持つ少なくとも1つのインスタンスが含まれているという仮定が無効である場合、どのようにメソッドを適用するかを示す。
論文 参考訳(メタデータ) (2020-07-21T10:45:05Z) - Motion-Excited Sampler: Video Adversarial Attack with Sparked Prior [63.11478060678794]
そこで本研究では,前もってモーションアウェアノイズを得るための効果的なモーションエキサイティングサンプリング手法を提案する。
より少ないクエリ数で様々なビデオ分類モデルを攻撃することができる。
論文 参考訳(メタデータ) (2020-03-17T10:54:12Z) - Sparse Black-box Video Attack with Reinforcement Learning [14.624074868199287]
ブラックボックスビデオ攻撃を強化学習フレームワークに定式化する。
RLの環境を認識モデルとし、RLのエージェントがフレーム選択の役割を果たす。
我々は2つの主流ビデオ認識モデルを用いて一連の実験を行う。
論文 参考訳(メタデータ) (2020-01-11T14:09:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。