論文の概要: Printing and Scanning Attack for Image Counter Forensics
- arxiv url: http://arxiv.org/abs/2005.02160v2
- Date: Wed, 24 Jun 2020 17:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-09 04:18:18.548370
- Title: Printing and Scanning Attack for Image Counter Forensics
- Title(参考訳): 画像カウンタ鑑定のための印刷・走査攻撃
- Authors: Hailey James, Otkrist Gupta, Dan Raviv
- Abstract要約: 画像の真正性を調べることは、操作ツールがよりアクセスしやすく、進歩するにつれて、ますます重要になっている。
近年の研究では、CNNをベースとした画像検出装置は操作の特定に成功しているが、敵の攻撃にも弱いことが示されている。
我々は、印刷とスキャンという、非常に確実な攻撃方法を探究する。
- 参考スコア(独自算出の注目度): 11.193867567895353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Examining the authenticity of images has become increasingly important as
manipulation tools become more accessible and advanced. Recent work has shown
that while CNN-based image manipulation detectors can successfully identify
manipulations, they are also vulnerable to adversarial attacks, ranging from
simple double JPEG compression to advanced pixel-based perturbation. In this
paper we explore another method of highly plausible attack: printing and
scanning. We demonstrate the vulnerability of two state-of-the-art models to
this type of attack. We also propose a new machine learning model that performs
comparably to these state-of-the-art models when trained and validated on
printed and scanned images. Of the three models, our proposed model outperforms
the others when trained and validated on images from a single printer. To
facilitate this exploration, we create a dataset of over 6,000 printed and
scanned image blocks. Further analysis suggests that variation between images
produced from different printers is significant, large enough that good
validation accuracy on images from one printer does not imply similar
validation accuracy on identical images from a different printer.
- Abstract(参考訳): 画像の真正性を調べることは、操作ツールがよりアクセスしやすく、進歩するにつれて、ますます重要になっている。
近年の研究では、CNNベースの画像操作検出器は、操作をうまく識別できるが、単純な二重JPEG圧縮から高度なピクセルベースの摂動まで、敵の攻撃にも弱いことが示されている。
本稿では,印刷とスキャニングという,可能性の高い攻撃手法について検討する。
この種の攻撃に対する2つの最先端モデルの脆弱性を実証する。
また,印刷およびスキャンされた画像上での学習と検証を行う際に,これらの最先端モデルに比較可能な新しい機械学習モデルを提案する。
提案モデルでは,3つのモデルのうち,1つのプリンタで画像のトレーニングと検証を行った場合,他のモデルよりも優れていた。
この探索を容易にするために、6,000以上の印刷およびスキャンされた画像ブロックのデータセットを作成する。
さらなる分析から、異なるプリンタから生成された画像間のばらつきは重要であり、1つのプリンタからの画像に対する良好な検証精度は、異なるプリンタからの同一の画像に対する検証精度を示さないほど大きいことが示唆された。
関連論文リスト
- Generating Automatically Print/Scan Textures for Morphing Attack Detection Applications [7.287930923353593]
主なシナリオの1つは、モルヒネ画像を印刷し、パスポートアプリケーションプロセスで各プリントを送信することである。
プライバシー上の懸念から、MADアルゴリズムをトレーニングするための小さなデータセットが利用可能だ。
本稿では,デジタル印刷/スキャン顔画像の自動生成のための転送転送に基づく2つの異なる手法を提案する。
論文 参考訳(メタデータ) (2024-08-18T17:53:26Z) - Transferable Learned Image Compression-Resistant Adversarial Perturbations [66.46470251521947]
敵対的攻撃は容易に画像分類システムを破壊し、DNNベースの認識タスクの脆弱性を明らかにする。
我々は、学習した画像圧縮機を前処理モジュールとして利用する画像分類モデルをターゲットにした新しいパイプラインを提案する。
論文 参考訳(メタデータ) (2024-01-06T03:03:28Z) - Training Data Improvement for Image Forgery Detection using Comprint [15.650121802816878]
ComprintはJPEG圧縮指紋を利用した偽造検出を可能にする。
本稿では,トレーニングセットがComprintのパフォーマンスに与える影響を評価する。
論文 参考訳(メタデータ) (2022-11-25T12:57:51Z) - Comprint: Image Forgery Detection and Localization using Compression
Fingerprints [19.54952278001317]
Comprintは、圧縮指紋またはコンプリントに基づく、新しい偽造検出および位置決め方法である。
補足型カメラモデル指紋を用いたComprintと最先端のノイズプリントの融合を提案する。
ComprintとFusion Comprint+Noiseprintは、Wildで改ざんされた画像を分析するための有望な法医学ツールだ。
論文 参考訳(メタデータ) (2022-10-05T13:05:18Z) - DocScanner: Robust Document Image Rectification with Progressive
Learning [162.03694280524084]
この研究はDocScannerという、文書画像の修正のための新しいディープネットワークアーキテクチャを提示する。
DocScannerは、修正されたイメージの1つの見積を維持し、再帰的なアーキテクチャで徐々に修正される。
反復的な改善によりDocScannerは堅牢で優れたパフォーマンスに収束し、軽量なリカレントアーキテクチャにより実行効率が保証される。
論文 参考訳(メタデータ) (2021-10-28T09:15:02Z) - VIPPrint: A Large Scale Dataset of Printed and Scanned Images for
Synthetic Face Images Detection and Source Linking [26.02960434287235]
本稿では,多数の合成顔画像と天然顔画像からなる新しいデータセットを提案する。
印刷およびスキャン画像に適用すると、自然顔画像と合成顔画像を区別する最先端の方法が失敗することを確認します。
論文 参考訳(メタデータ) (2021-02-01T13:00:29Z) - Adversarial Attacks on Binary Image Recognition Systems [78.78811131936622]
本研究では,二分法(黒と白)画像分類モデルに対する敵対攻撃について検討する。
カラー画像とグレースケール画像とは対照的に、バイナリ画像に対する攻撃の探索空間は極めて制限されている。
バイナリイメージの分類を騙すために設計された,SCARと呼ばれる新しい攻撃アルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-10-22T14:57:42Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z) - Discernible Image Compression [124.08063151879173]
本稿では、外観と知覚の整合性の両方を追求し、圧縮画像を作成することを目的とする。
エンコーダ・デコーダ・フレームワークに基づいて,事前学習したCNNを用いて,オリジナル画像と圧縮画像の特徴を抽出する。
ベンチマーク実験により,提案手法を用いて圧縮した画像は,その後の視覚認識・検出モデルでもよく認識できることが示された。
論文 参考訳(メタデータ) (2020-02-17T07:35:08Z) - Print Defect Mapping with Semantic Segmentation [4.189639503810488]
印刷欠陥をピクセルレベルでマップする最初のエンドツーエンドフレームワークを提案する。
我々のフレームワークは畳み込みニューラルネットワーク、特にDeepLab-v3+を使用し、有望な結果を得る。
論文 参考訳(メタデータ) (2020-01-27T22:40:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。