論文の概要: Proactive Image Manipulation Detection
- arxiv url: http://arxiv.org/abs/2203.15880v1
- Date: Tue, 29 Mar 2022 20:02:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-31 14:39:45.309083
- Title: Proactive Image Manipulation Detection
- Title(参考訳): プロアクティブ画像操作検出
- Authors: Vishal Asnani, Xi Yin, Tal Hassner, Sijia Liu, Xiaoming Liu
- Abstract要約: 本稿では,画像操作検出のための能動的手法を提案する。
我々のキーとなる有効化技術は、実際の画像に付加されたテンプレートのセットを推定することであり、それによってより正確な操作検出が可能になる。
画像操作検出では,CycleGANの平均精度は16%,GauGANは32%であった。
- 参考スコア(独自算出の注目度): 41.98292654598543
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Image manipulation detection algorithms are often trained to discriminate
between images manipulated with particular Generative Models (GMs) and
genuine/real images, yet generalize poorly to images manipulated with GMs
unseen in the training. Conventional detection algorithms receive an input
image passively. By contrast, we propose a proactive scheme to image
manipulation detection. Our key enabling technique is to estimate a set of
templates which when added onto the real image would lead to more accurate
manipulation detection. That is, a template protected real image, and its
manipulated version, is better discriminated compared to the original real
image vs. its manipulated one. These templates are estimated using certain
constraints based on the desired properties of templates. For image
manipulation detection, our proposed approach outperforms the prior work by an
average precision of 16% for CycleGAN and 32% for GauGAN. Our approach is
generalizable to a variety of GMs showing an improvement over prior work by an
average precision of 10% averaged across 12 GMs. Our code is available at
https://www.github.com/vishal3477/proactive_IMD.
- Abstract(参考訳): 画像操作検出アルゴリズムは、特定の生成モデル(gms)で操作された画像と実際の画像とを区別するように訓練されることが多いが、訓練中に認識されないgmsで操作された画像にはあまり一般化しない。
従来の検出アルゴリズムは受動的に入力画像を受け取る。
対照的に,画像操作検出のためのプロアクティブスキームを提案する。
私たちの重要な実現技術は、実際のイメージに追加されるとより正確な操作検出につながるテンプレートセットを見積もることです。
つまり、テンプレート保護実画像とその操作されたバージョンは、元の実画像と操作された画像の区別が優れている。
これらのテンプレートは、テンプレートの望ましい特性に基づいて、特定の制約を用いて推定される。
画像操作検出では,提案手法は,サイクルガンでは16%,ゴーガンでは32%の平均精度で先行手法を上回っている。
本手法は,12台のGMに対して平均10%の精度で先行作業よりも改善したことを示す様々なGMに対して一般化可能である。
私たちのコードはhttps://www.github.com/vishal3477/proactive_imdで利用可能です。
関連論文リスト
- MaLP: Manipulation Localization Using a Proactive Scheme [36.08924910193875]
そこで本研究では,MALPと呼ばれる局所化操作のためのプロアクティブスキームを提案する。
学習テンプレートを追加することで、実際の画像を暗号化する。
我々は,MALPが従来の受動的作業よりも優れた性能を示すことを示す。
論文 参考訳(メタデータ) (2023-03-29T19:17:06Z) - Improving Zero-shot Generalization and Robustness of Multi-modal Models [70.14692320804178]
CLIPやLiTのようなマルチモーダルな画像テキストモデルは、画像分類ベンチマークで顕著な性能を示している。
本研究は,この性能差の原因を考察し,テキストプロンプトの曖昧さによる障害事例の多くが原因であることを示す。
本稿では,WordNet階層を用いて,不確実な画像の精度を向上させるための簡易かつ効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-12-04T07:26:24Z) - Assessing Neural Network Robustness via Adversarial Pivotal Tuning [24.329515700515806]
予め訓練された画像生成装置が、詳細で多様で逆転的な方法で画像のセマンティックな操作にどのように使用できるかを示す。
近年のGANに基づく光リアリスティック手法に着想を得て,Adversarial Pivotal Tuning (APT) と呼ばれる手法を提案する。
APTは、様々な事前訓練された分類器を騙した、幅広いクラス保存セマンティックイメージ操作が可能であることを実証する。
論文 参考訳(メタデータ) (2022-11-17T18:54:35Z) - BEiT v2: Masked Image Modeling with Vector-Quantized Visual Tokenizers [117.79456335844439]
マスク付き予測のための再構成ターゲットとして,セマンティックリッチなビジュアルトークン化器を提案する。
次に、マスクされた画像パッチに対する元の視覚トークンを予測して、視覚変換器を事前訓練する。
画像分類とセマンティックセグメンテーションの実験は、我々のアプローチがMIM法よりも優れていることを示している。
論文 参考訳(メタデータ) (2022-08-12T16:48:10Z) - TAFIM: Targeted Adversarial Attacks against Facial Image Manipulations [0.0]
顔画像操作手法は、個人のプライバシーに影響を与えるか、偽情報を広めることによって、懸念を引き起こす可能性がある。
本研究は,顔の操作がそもそも起こらないよう,前向きな防御法を提案する。
原画像に埋め込まれた画像固有の摂動を生成する新しいデータ駆動手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T19:00:43Z) - Inverse Problems Leveraging Pre-trained Contrastive Representations [88.70821497369785]
破損したデータの表現を復元するための新しい逆問題群について検討する。
コントラスト目的を用いた教師付きインバージョン手法を提案する。
提案手法は,幅広いフォワード演算子においてラベル付きデータのごく一部であっても,エンド・ツー・エンドのベースラインよりも優れる。
論文 参考訳(メタデータ) (2021-10-14T15:06:30Z) - A Hierarchical Transformation-Discriminating Generative Model for Few
Shot Anomaly Detection [93.38607559281601]
各トレーニングイメージのマルチスケールパッチ分布をキャプチャする階層的生成モデルを開発した。
この異常スコアは、スケール及び画像領域にわたる正しい変換のパッチベースの投票を集約して得られる。
論文 参考訳(メタデータ) (2021-04-29T17:49:48Z) - Holistic Image Manipulation Detection using Pixel Co-occurrence Matrices [16.224649756613655]
digital image forensicsは、デジタル操作された画像を検出することを目的としている。
文献におけるほとんどの検出方法は、特定の種類の操作を検出することに焦点を当てている。
本稿では,画素共起行列と深層学習を組み合わせることで,改ざん画像を検出する新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-12T17:54:42Z) - Generating Image Adversarial Examples by Embedding Digital Watermarks [38.93689142953098]
本稿では,DNN(Deep Neural Network, ディープ・ニューラル・ネットワーク)モデルに対する画像逆転例を生成する,新しいデジタル透かしに基づく手法を提案する。
ホスト画像と透かし画像を選択するための効率的な機構を考案し、改良された離散ウェーブレット変換(DWT)に基づく透かしアルゴリズムを利用する。
我々のスキームは、CIFAR-10データセット上の各画像に対する攻撃を完了する平均1.17秒で、多数の敵例を効率的に生成することができる。
論文 参考訳(メタデータ) (2020-08-14T09:03:26Z) - Swapping Autoencoder for Deep Image Manipulation [94.33114146172606]
画像操作に特化して設計されたディープモデルであるSwapping Autoencoderを提案する。
キーとなるアイデアは、2つの独立したコンポーネントで画像をエンコードし、交換された組み合わせをリアルなイメージにマップするように強制することだ。
複数のデータセットの実験により、我々のモデルはより良い結果が得られ、最近の生成モデルと比較してかなり効率が良いことが示されている。
論文 参考訳(メタデータ) (2020-07-01T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。