論文の概要: Dormant: Defending against Pose-driven Human Image Animation
- arxiv url: http://arxiv.org/abs/2409.14424v2
- Date: Mon, 24 Feb 2025 08:35:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-25 15:50:36.268542
- Title: Dormant: Defending against Pose-driven Human Image Animation
- Title(参考訳): ドミナント:人間による人間のイメージアニメーションを擁護する
- Authors: Jiachen Zhou, Mingsi Wang, Tianlin Li, Guozhu Meng, Kai Chen,
- Abstract要約: ポーズ駆動の人間の画像アニメーションは、非常に進歩し、1枚の写真から鮮明でリアルな人間のビデオを生成することができる。
逆に、攻撃者が利用可能な1つの画像を使って、政治、暴力、その他の違法コンテンツを含むビデオを作成することで、画像誤使用のリスクが悪化する。
本研究では,ポーズ駆動型人体画像アニメーション技術に対する防御を目的とした,新しい保護手法であるDormantを提案する。
- 参考スコア(独自算出の注目度): 12.056482296260095
- License:
- Abstract: Pose-driven human image animation has achieved tremendous progress, enabling the generation of vivid and realistic human videos from just one single photo. However, it conversely exacerbates the risk of image misuse, as attackers may use one available image to create videos involving politics, violence, and other illegal content. To counter this threat, we propose Dormant, a novel protection approach tailored to defend against pose-driven human image animation techniques. Dormant applies protective perturbation to one human image, preserving the visual similarity to the original but resulting in poor-quality video generation. The protective perturbation is optimized to induce misextraction of appearance features from the image and create incoherence among the generated video frames. Our extensive evaluation across 8 animation methods and 4 datasets demonstrates the superiority of Dormant over 6 baseline protection methods, leading to misaligned identities, visual distortions, noticeable artifacts, and inconsistent frames in the generated videos. Moreover, Dormant shows effectiveness on 6 real-world commercial services, even with fully black-box access.
- Abstract(参考訳): ポーズ駆動の人間の画像アニメーションは、非常に進歩し、1枚の写真から鮮明でリアルな人間のビデオを生成することができる。
しかし、政治的、暴力、その他の違法なコンテンツを含むビデオを作成するために、攻撃者が利用可能な1つの画像を使用するため、画像誤使用のリスクは逆に悪化する。
この脅威に対処するため,ポーズ駆動型ヒューマンイメージアニメーション技術に対する防御に適した新しい保護手法であるDormantを提案する。
Dormantは、人間の1つのイメージに保護的摂動を適用し、オリジナルと視覚的類似性を保ちながら、品質の悪いビデオ生成をもたらす。
保護摂動は、画像から外観特徴の誤抽出を誘発し、生成された映像フレーム間に不整合を生じさせるように最適化される。
8つのアニメーション手法と4つのデータセットにまたがる広範囲な評価は、6つのベースライン保護手法よりもDormantの方が優れていることを示す。
さらに、Dormantは、完全なブラックボックスアクセスであっても、6つの現実世界の商用サービスで有効性を示す。
関連論文リスト
- Move-in-2D: 2D-Conditioned Human Motion Generation [54.067588636155115]
そこで我々は,シーンイメージに条件付けされた人間の動作シーケンスを生成する新しい手法であるMove-in-2Dを提案する。
本手法はシーンイメージとテキストプロンプトの両方を入力として受け入れ,シーンに合わせた動作シーケンスを生成する。
論文 参考訳(メタデータ) (2024-12-17T18:58:07Z) - Replace Anyone in Videos [39.4019337319795]
ビデオ中の人間の動きのローカライズと操作に焦点を当てたReplaceAnyoneフレームワークを提案する。
具体的には、このタスクをイメージ条件付きポーズ駆動ビデオインペインティングパラダイムとして定式化する。
形状漏れを回避し,局所制御のきめ細かな制御を可能にするために,規則形状と不規則形状を含む多種多様なマスク形式を導入する。
論文 参考訳(メタデータ) (2024-09-30T03:27:33Z) - HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - Towards 4D Human Video Stylization [56.33756124829298]
本稿では,4D(3Dおよび時間)の映像スタイリングに向けての第一歩として,スタイル変換,新しいビュー合成,人間アニメーションについて述べる。
我々はNeural Radiance Fields(NeRF)を利用してビデオを表現する。
我々のフレームワークは、斬新なポーズや視点に対応する能力を独自に拡張し、クリエイティブなヒューマンビデオスタイリングのための汎用的なツールとなる。
論文 参考訳(メタデータ) (2023-12-07T08:58:33Z) - Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation [27.700371215886683]
拡散モデルは、その堅牢な生成能力のために、視覚世代研究の主流となっている。
本稿では,キャラクターアニメーションに適した新しいフレームワークを提案する。
トレーニングデータを拡張することにより、任意の文字をアニメーション化することが可能となり、他の画像とビデオの手法と比較して、文字アニメーションにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2023-11-28T12:27:15Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Dancing Avatar: Pose and Text-Guided Human Motion Videos Synthesis with
Image Diffusion Model [57.855362366674264]
そこで我々は,ポーズやテキストによる手動動画を製作するためのDancing Avatarを提案する。
提案手法では,事前学習したT2I拡散モデルを用いて,各映像フレームを自己回帰的に生成する。
論文 参考訳(メタデータ) (2023-08-15T13:00:42Z) - UnGANable: Defending Against GAN-based Face Manipulation [69.90981797810348]
ディープフェイクは、私たちの社会に視覚的誤報の深刻な脅威をもたらす。
1つの代表的なディープフェイク応用は、画像中の被害者の顔属性を変更する顔操作である。
本稿では,GANable による顔操作に対する最初の防御システムである UnGANable を提案する。
論文 参考訳(メタデータ) (2022-10-03T14:20:01Z) - Do As I Do: Transferring Human Motion and Appearance between Monocular
Videos with Spatial and Temporal Constraints [8.784162652042959]
画像からのマーカレス人間の動き推定と形状モデリングは、この課題を先進国にもたらす。
本稿では,モノクラービデオから外見や人間の動きを伝達するための統一的な定式化を提案する。
本手法は,人間の動作と外観の両方を,最先端の手法で転送することができる。
論文 参考訳(メタデータ) (2020-01-08T16:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。