論文の概要: PROVES: Establishing Image Provenance using Semantic Signatures
- arxiv url: http://arxiv.org/abs/2110.11411v1
- Date: Thu, 21 Oct 2021 18:30:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 04:19:36.831946
- Title: PROVES: Establishing Image Provenance using Semantic Signatures
- Title(参考訳): proofs: セマンティックシグネチャを用いた画像生成の確立
- Authors: Mingyang Xie, Manav Kulshrestha, Shaojie Wang, Jinghan Yang, Ayan
Chakrabarti, Ning Zhang, and Yevgeniy Vorobeychik
- Abstract要約: 本稿では,画像中の意味情報の証明を保存するための新しいアーキテクチャを提案する。
このアーキテクチャを用いて、個人識別(顔)と、写真が屋内で撮影されたか屋外で撮影されたかの2種類の意味情報を検証する。
- 参考スコア(独自算出の注目度): 36.35727952091869
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern AI tools, such as generative adversarial networks, have transformed
our ability to create and modify visual data with photorealistic results.
However, one of the deleterious side-effects of these advances is the emergence
of nefarious uses in manipulating information in visual data, such as through
the use of deep fakes. We propose a novel architecture for preserving the
provenance of semantic information in images to make them less susceptible to
deep fake attacks. Our architecture includes semantic signing and verification
steps. We apply this architecture to verifying two types of semantic
information: individual identities (faces) and whether the photo was taken
indoors or outdoors. Verification accounts for a collection of common image
transformation, such as translation, scaling, cropping, and small rotations,
and rejects adversarial transformations, such as adversarially perturbed or, in
the case of face verification, swapped faces. Experiments demonstrate that in
the case of provenance of faces in an image, our approach is robust to
black-box adversarial transformations (which are rejected) as well as benign
transformations (which are accepted), with few false negatives and false
positives. Background verification, on the other hand, is susceptible to
black-box adversarial examples, but becomes significantly more robust after
adversarial training.
- Abstract(参考訳): 生成的敵ネットワークのような現代のAIツールは、フォトリアリスティックな結果で視覚データを作成し、修正する能力を変えました。
しかし、これらの進歩の有害な副作用の1つは、ディープフェイク(deep fakes)の使用などの視覚データにおける情報操作における悪用の出現である。
画像における意味情報の出所を保存し,深い偽攻撃の影響を受けにくくするための新しいアーキテクチャを提案する。
私たちのアーキテクチャにはセマンティック署名と検証ステップが含まれています。
このアーキテクチャを、個人識別(顔)と、写真が屋内か屋外かの2種類の意味情報の検証に適用する。
検証は、翻訳、スケーリング、トリミング、小さな回転などの一般的な画像変換の集合を説明し、敵対的な摂動や、顔認証の場合、顔交換などの逆変換を拒否する。
実験により、画像中の顔の出現の場合、我々のアプローチはブラックボックスの逆変換(拒否される)と良性変換(受理される)に頑健であり、偽陰性や偽陽性は少ないことが示された。
一方、背景検証はブラックボックスの敵の例に影響を受けやすいが、相手の訓練後にさらに堅牢になる。
関連論文リスト
- ID-Guard: A Universal Framework for Combating Facial Manipulation via Breaking Identification [60.73617868629575]
深層学習に基づく顔操作の誤用は、公民権に対する潜在的な脅威となる。
この不正行為を防ぐため、プロアクティブな防御技術が提案され、操作プロセスを妨害した。
我々は,ID-Guardと呼ばれる,顔操作と戦うための新しい普遍的枠組みを提案する。
論文 参考訳(メタデータ) (2024-09-20T09:30:08Z) - Semantic Contextualization of Face Forgery: A New Definition, Dataset, and Detection Method [77.65459419417533]
我々は,顔フォージェリを意味的文脈に配置し,意味的顔属性を変更する計算手法が顔フォージェリの源であることを定義した。
階層的なグラフで整理されたラベルの集合に各画像が関連付けられている大規模な顔偽画像データセットを構築した。
本稿では,ラベル関係を捕捉し,その優先課題を優先するセマンティクス指向の顔偽造検出手法を提案する。
論文 参考訳(メタデータ) (2024-05-14T10:24:19Z) - Hierarchical Generative Network for Face Morphing Attacks [7.34597796509503]
顔認識システム(FRS)は、複数のアイデンティティを含む形態画像を作成することで、顔認識システム(FRS)を回避している。
本研究では, 画像の品質向上と寄与するアイデンティティの保存を図るため, 新たなモーフィング攻撃法を提案する。
論文 参考訳(メタデータ) (2024-03-17T06:09:27Z) - Building an Invisible Shield for Your Portrait against Deepfakes [34.65356811439098]
本稿では,画像のプロアクティブな保護を目的とした新しいフレームワーク,Integity Encryptorを提案する。
提案手法では,重要な顔属性と密接な関係を持つメッセージを,秘密に符号化する。
修正された顔属性は、デコードされたメッセージの比較を通じて、操作された画像を検出する手段として機能する。
論文 参考訳(メタデータ) (2023-05-22T10:01:28Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Learning Disentangled Representation for One-shot Progressive Face
Swapping [65.98684203654908]
ジェネレーティブ・アドバーサリアル・ネットワークに基づくワンショット・フェイススワップのためのシンプルで効率的なFaceSwapperを提案する。
提案手法は,不整合表現モジュールと意味誘導融合モジュールから構成される。
その結果,本手法は,トレーニングサンプルの少ないベンチマークで最先端の結果が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-24T11:19:04Z) - Adversarial Defense by Latent Style Transformations [20.78877614953599]
本研究では、不審な入力を検出することにより、高解像度画像に対する敵攻撃に対する攻撃非依存の防御について検討する。
我々のアプローチの背景にある直感は、通常の画像の本質的な特徴は一般に非意味的なスタイル変換と一致しているということである。
論文 参考訳(メタデータ) (2020-06-17T07:56:36Z) - Learning Transformation-Aware Embeddings for Image Forensics [15.484408315588569]
Image Provenance Analysisは、コンテンツを共有するさまざまな操作されたイメージバージョン間の関係を見つけることを目的としている。
証明分析のための主要なサブプロブレムの1つは、完全なコンテンツを共有したり、ほぼ重複している画像の編集順序である。
本稿では,1つの画像から生成した画像に対して,変換を通じて妥当な順序付けを行うための,新しい深層学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2020-01-13T22:01:24Z) - Fine-grained Image-to-Image Transformation towards Visual Recognition [102.51124181873101]
我々は,入力画像の同一性を保った画像を生成するために,微細なカテゴリで画像を変換することを目的としている。
我々は、画像のアイデンティティと非関連要因をアンハングルするために、生成的敵ネットワークに基づくモデルを採用する。
CompCarsとMulti-PIEデータセットの実験では、我々のモデルが生成した画像のアイデンティティを、最先端の画像-画像変換モデルよりもはるかによく保存していることが示された。
論文 参考訳(メタデータ) (2020-01-12T05:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。