論文の概要: Artificial Image Tampering Distorts Spatial Distribution of Texture
Landmarks and Quality Characteristics
- arxiv url: http://arxiv.org/abs/2208.02710v1
- Date: Thu, 4 Aug 2022 15:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-05 12:56:40.262023
- Title: Artificial Image Tampering Distorts Spatial Distribution of Texture
Landmarks and Quality Characteristics
- Title(参考訳): 人工画像改ざんはテクスチャランドマークの空間分布と品質特性を歪めている
- Authors: Tahir Hassan, Aras Asaad, Dashti Ali, Sabah Jassim
- Abstract要約: eパスポートの顔写真は、自動国境管理システムや人間の警備員を騙すことができる。
人工的な画像改ざんによってテクスチャランドマークの空間分布が歪むことを実証する。
これら2つのスリム特徴ベクトルの歪みによって引き起こされたタンパーが、説明可能な検出器を構築する上で有意義なポテンシャルをもたらすことを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Advances in AI based computer vision has led to a significant growth in
synthetic image generation and artificial image tampering with serious
implications for unethical exploitations that undermine person identification
and could make render AI predictions less explainable.Morphing, Deepfake and
other artificial generation of face photographs undermine the reliability of
face biometrics authentication using different electronic ID documents.Morphed
face photographs on e-passports can fool automated border control systems and
human guards.This paper extends our previous work on using the persistent
homology (PH) of texture landmarks to detect morphing attacks.We demonstrate
that artificial image tampering distorts the spatial distribution of texture
landmarks (i.e. their PH) as well as that of a set of image quality
characteristics.We shall demonstrate that the tamper caused distortion of these
two slim feature vectors provide significant potentials for building
explainable (Handcrafted) tamper detectors with low error rates and suitable
for implementation on constrained devices.
- Abstract(参考訳): Advances in AI based computer vision has led to a significant growth in synthetic image generation and artificial image tampering with serious implications for unethical exploitations that undermine person identification and could make render AI predictions less explainable.Morphing, Deepfake and other artificial generation of face photographs undermine the reliability of face biometrics authentication using different electronic ID documents.Morphed face photographs on e-passports can fool automated border control systems and human guards.This paper extends our previous work on using the persistent homology (PH) of texture landmarks to detect morphing attacks.We demonstrate that artificial image tampering distorts the spatial distribution of texture landmarks (i.e. their PH) as well as that of a set of image quality characteristics.We shall demonstrate that the tamper caused distortion of these two slim feature vectors provide significant potentials for building explainable (Handcrafted) tamper detectors with low error rates and suitable for implementation on constrained devices.
関連論文リスト
- Embedding Non-Distortive Cancelable Face Template Generation [22.80706131626207]
我々は、目では認識できないが、任意のカスタム埋め込みニューラルネットワークモデルで識別可能な顔画像を実現する革新的な画像歪み技術を導入する。
生体認証ネットワークの信頼性を,予測された同一性を変化させない最大画像歪みを判定することによって検証する。
論文 参考訳(メタデータ) (2024-02-04T15:39:18Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved
Embeddings [24.403019302064006]
本稿では,眼に認識不能な顔画像を描画する革新的な画像歪み手法を提案する。
理論的観点から、我々は最先端のバイオメトリックス認識ニューラルネットワークがいかに信頼性が高いかを考察する。
この手法を適用することで、生体認証システムのセキュリティ、精度、性能のバランスをとるという工学的課題に対する実践的な解決策が示される。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - Adv-Diffusion: Imperceptible Adversarial Face Identity Attack via Latent
Diffusion Model [61.53213964333474]
本稿では,生の画素空間ではなく,潜在空間における非知覚的対角的アイデンティティ摂動を生成できる統一的なフレームワークAdv-Diffusionを提案する。
具体的には,周囲のセマンティックな摂動を生成するために,個人性に敏感な条件付き拡散生成モデルを提案する。
設計された適応強度に基づく対向摂動アルゴリズムは、攻撃の伝達性とステルス性の両方を確保することができる。
論文 参考訳(メタデータ) (2023-12-18T15:25:23Z) - DeepFidelity: Perceptual Forgery Fidelity Assessment for Deepfake
Detection [67.3143177137102]
ディープフェイク検出(Deepfake detection)とは、画像やビデオにおいて、人工的に生成された顔や編集された顔を検出すること。
本稿では,実顔と偽顔とを適応的に識別するDeepFidelityという新しいDeepfake検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-07T07:19:45Z) - T2IW: Joint Text to Image & Watermark Generation [74.20148555503127]
画像と透かし(T2IW)への共同テキスト生成のための新しいタスクを提案する。
このT2IWスキームは、意味的特徴と透かし信号が画素内で互換性を持つように強制することにより、複合画像を生成する際に、画像品質に最小限のダメージを与える。
提案手法により,画像品質,透かしの可視性,透かしの堅牢性などの顕著な成果が得られた。
論文 参考訳(メタデータ) (2023-09-07T16:12:06Z) - On the Robustness of Quality Measures for GANs [136.18799984346248]
本研究は、インセプションスコア(IS)やFr'echet Inception Distance(FID)のような生成モデルの品質測定の堅牢性を評価する。
このような測度は、加算画素摂動によっても操作可能であることを示す。
論文 参考訳(メタデータ) (2022-01-31T06:43:09Z) - Generation of Non-Deterministic Synthetic Face Datasets Guided by
Identity Priors [19.095368725147367]
本稿では、StyleGANの構造化された潜在空間を利用して、マット付き顔画像を生成する非決定論的手法を提案する。
25,919個の合成IDを含む77,034個のサンプルからなる合成顔画像(SymFace)のデータセットを作成する。
論文 参考訳(メタデータ) (2021-12-07T11:08:47Z) - Self-supervised GAN Detector [10.963740942220168]
生成モデルは 不正や 破壊 偽ニュースなど 悪意のある目的で悪用される
トレーニング設定外の未確認画像を識別する新しいフレームワークを提案する。
提案手法は,GAN画像の高品質な人工指紋を再構成する人工指紋生成装置から構成する。
論文 参考訳(メタデータ) (2021-11-12T06:19:04Z) - Reverse Engineering of Generative Models: Inferring Model
Hyperparameters from Generated Images [36.08924910193875]
State-of-the-art (SOTA) Generative Models (GM)は、人間が本物の写真と区別するのが難しい写真リアルな画像を合成することができる。
これらのモデルにより生成された画像からモデルハイパーパラメータを推論するために,GMのリバースエンジニアリングを提案する。
指紋推定はディープフェイク検出と画像属性に有効であることを示す。
論文 参考訳(メタデータ) (2021-06-15T04:19:26Z) - Intriguing Properties of Vision Transformers [114.28522466830374]
視覚変換器(ViT)は、様々なマシンビジョン問題にまたがって印象的な性能を誇示している。
我々は、この問題を広範囲の実験を通して体系的に研究し、高性能畳み込みニューラルネットワーク(CNN)との比較を行った。
ViTsの効果的な特徴は、自己認識機構によって可能なフレキシブルな受容と動的場によるものであることを示す。
論文 参考訳(メタデータ) (2021-05-21T17:59:18Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。