論文の概要: PRIME: Protect Your Videos From Malicious Editing
- arxiv url: http://arxiv.org/abs/2402.01239v1
- Date: Fri, 2 Feb 2024 09:07:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 16:17:30.343214
- Title: PRIME: Protect Your Videos From Malicious Editing
- Title(参考訳): PRIME:悪質な編集からビデオを守る
- Authors: Guanlin Li, Shuai Yang, Jie Zhang, Tianwei Zhang
- Abstract要約: 生成モデルによって、写真やビデオの操作や編集が驚くほど簡単になった。
我々は,保護方法PRIMEを導入し,時間コストを大幅に削減し,保護性能を向上させる。
評価の結果,PRIMEのコストは従来の最先端手法のコストの8.3%に過ぎなかった。
- 参考スコア(独自算出の注目度): 21.38790858842751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of generative models, the quality of generated content
keeps increasing. Recently, open-source models have made it surprisingly easy
to manipulate and edit photos and videos, with just a few simple prompts. While
these cutting-edge technologies have gained popularity, they have also given
rise to concerns regarding the privacy and portrait rights of individuals.
Malicious users can exploit these tools for deceptive or illegal purposes.
Although some previous works focus on protecting photos against generative
models, we find there are still gaps between protecting videos and images in
the aspects of efficiency and effectiveness. Therefore, we introduce our
protection method, PRIME, to significantly reduce the time cost and improve the
protection performance. Moreover, to evaluate our proposed protection method,
we consider both objective metrics and human subjective metrics. Our evaluation
results indicate that PRIME only costs 8.3% GPU hours of the cost of the
previous state-of-the-art method and achieves better protection results on both
human evaluation and objective metrics. Code can be found in
https://github.com/GuanlinLee/prime.
- Abstract(参考訳): 生成モデルの開発により、生成コンテンツの品質が向上している。
最近、オープンソースのモデルによって、写真やビデオの操作や編集が驚くほど簡単になった。
これらの最先端技術は人気を博しているが、個人のプライバシーと肖像画の権利に関する懸念も持ち上がっている。
悪意のあるユーザーは、偽装や違法な目的でこれらのツールを利用することができる。
これまでのいくつかの研究は、生成モデルから写真を保護することに重点を置いていたが、効率性と有効性の観点からは、ビデオと画像の保護には依然としてギャップがある。
そこで我々は,保護手法PRIMEを導入し,時間コストを大幅に削減し,保護性能を向上させる。
さらに,提案する保護手法を評価するために,客観的指標と人的主観的指標の両方を検討する。
評価の結果,primeは前回のstate-of-the-art法のコストの8.3%のgpu時間しかかからず,人的評価と客観的指標の両方においてより優れた保護結果が得られることがわかった。
コードはhttps://github.com/GuanlinLee/prime.orgにある。
関連論文リスト
- Edit Away and My Face Will not Stay: Personal Biometric Defense against Malicious Generative Editing [19.94455452402954]
FaceLockは、敵の摂動を最適化して生体情報を破壊または著しく変更する、ポートレート保護の新しいアプローチである。
我々の研究はバイオメトリック・ディフェンスを推進し、画像編集におけるプライバシー保護の実践の基礎を定めている。
論文 参考訳(メタデータ) (2024-11-25T18:59:03Z) - CopyrightMeter: Revisiting Copyright Protection in Text-to-image Models [30.618794027527695]
我々は17の最先端保護と16の代表的な攻撃を組み込んだ統合評価フレームワークであるPiciceMeterを開発した。
分析の結果, (i) 大部分の保護(16/17) は攻撃に対する耐性がない, (ii) ベスト保護は目標の優先度によって異なる, (iii) より高度な攻撃は保護のアップグレードを著しく促進する,という結論が得られた。
論文 参考訳(メタデータ) (2024-11-20T09:19:10Z) - DiffusionGuard: A Robust Defense Against Malicious Diffusion-based Image Editing [93.45507533317405]
DiffusionGuardは、拡散ベースの画像編集モデルによる不正な編集に対する堅牢で効果的な防御方法である。
拡散過程の初期段階をターゲットとした対向雑音を発生させる新しい目的を提案する。
また,テスト期間中の各種マスクに対するロバスト性を高めるマスク強化手法も導入した。
論文 参考訳(メタデータ) (2024-10-08T05:19:19Z) - PixelFade: Privacy-preserving Person Re-identification with Noise-guided Progressive Replacement [41.05432008027312]
オンラインの人物識別サービスは、データ漏洩回復攻撃によるプライバシー侵害を検知する。
これまでのプライバシ保護者再識別手法では、回復攻撃に抵抗できず、精度を損なうことはできない。
歩行者画像を保護するための反復的(PixelFade)手法を提案する。
論文 参考訳(メタデータ) (2024-08-10T12:52:54Z) - Adversarial Perturbations Cannot Reliably Protect Artists From Generative AI [61.35083814817094]
オンラインで公開されたアートワークに小さな敵対的摂動を取り入れた、スタイルの模倣に対する保護ツールがいくつか開発されている。
画像アップスケーリングのような低努力と「オフ・ザ・シェルフ」技術は、既存の保護を著しく劣化させる堅牢な模倣手法を作成するのに十分であることがわかった。
我々は,敵対的摂動に基づくツールが,生成AIの誤用からアーティストを確実に保護できないことを警告する。
論文 参考訳(メタデータ) (2024-06-17T18:51:45Z) - CLIP2Protect: Protecting Facial Privacy using Text-Guided Makeup via
Adversarial Latent Search [10.16904417057085]
ディープラーニングベースの顔認識システムは、デジタル世界のユーザを無許可で追跡することができる。
既存のプライバシーを強化する方法は、ユーザー体験を損なうことなく、顔のプライバシーを保護することができる自然主義的なイメージを生成するのに失敗する。
本稿では,事前学習された生成モデルの低次元多様体における逆潜時符号の発見に依存する,顔のプライバシー保護のための新しい2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2023-06-16T17:58:15Z) - DiffProtect: Generate Adversarial Examples with Diffusion Models for
Facial Privacy Protection [64.77548539959501]
DiffProtectは最先端の方法よりも自然に見える暗号化画像を生成する。
例えば、CelebA-HQとFFHQのデータセットで24.5%と25.1%の絶対的な改善が達成されている。
論文 参考訳(メタデータ) (2023-05-23T02:45:49Z) - Scapegoat Generation for Privacy Protection from Deepfake [21.169776378130635]
本稿では,原文入力のスタイルを変更してスケープゴート画像を生成する「ディープフェイク防止のための新しい問題定式化を提案する。
悪意のあるディープフェイクであっても、ユーザーのプライバシーは保護されている。
論文 参考訳(メタデータ) (2023-03-06T06:52:00Z) - PrivHAR: Recognizing Human Actions From Privacy-preserving Lens [58.23806385216332]
我々は、人間の行動認識パイプラインに沿って、堅牢な視覚的プライバシー保護を提供するための最適化フレームワークを提案する。
我々のフレームワークは、カメラレンズをパラメータ化して、ビデオの品質を劣化させ、プライバシー特性を抑え、敵の攻撃を防ぎます。
論文 参考訳(メタデータ) (2022-06-08T13:43:29Z) - OPOM: Customized Invisible Cloak towards Face Privacy Protection [58.07786010689529]
我々は、新しいタイプのカスタマイズクロークに基づく技術の観点から、顔のプライバシ保護について検討する。
本研究では,個人固有の(クラスワイドな)ユニバーサルマスクを生成するために,1人1マスク(OPOM)という新しい手法を提案する。
提案手法の有効性を,共通データセットと有名データセットの両方で評価した。
論文 参考訳(メタデータ) (2022-05-24T11:29:37Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。