論文の概要: Mathematical model of printing-imaging channel for blind detection of
fake copy detection patterns
- arxiv url: http://arxiv.org/abs/2212.07326v1
- Date: Wed, 14 Dec 2022 16:46:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 17:46:22.832326
- Title: Mathematical model of printing-imaging channel for blind detection of
fake copy detection patterns
- Title(参考訳): 偽写検出パターンのブラインド検出のための印刷画像チャネルの数学的モデル
- Authors: Joakim Tutt, Olga Taran, Roman Chaban, Brian Pulfer, Yury Belousov,
Taras Holotyak, Slava Voloshynovskiy
- Abstract要約: 本稿では,CDP認証のための印刷画像チャネルの数学的モデルを提案する。
その結果、訓練段階で未知のコピーフェイクを深層学習でも確実に認証できることが判明した。
- 参考スコア(独自算出の注目度): 10.292065384528799
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Nowadays, copy detection patterns (CDP) appear as a very promising
anti-counterfeiting technology for physical object protection. However, the
advent of deep learning as a powerful attacking tool has shown that the general
authentication schemes are unable to compete and fail against such attacks. In
this paper, we propose a new mathematical model of printing-imaging channel for
the authentication of CDP together with a new detection scheme based on it. The
results show that even deep learning created copy fakes unknown at the training
stage can be reliably authenticated based on the proposed approach and using
only digital references of CDP during authentication.
- Abstract(参考訳): 現在、コピー検出パターン(CDP)は、物理的オブジェクト保護のための非常に有望な反偽造技術として現れている。
しかし、強力な攻撃ツールとしての深層学習の出現は、一般的な認証方式がこのような攻撃に対抗して失敗することができないことを示している。
本稿では,CDP認証のための印刷画像チャネルの数学的モデルと,それに基づく新たな検出手法を提案する。
その結果,学習段階において未知の複写偽の深層学習であっても,提案手法に基づいて確実な認証が可能であり,認証中にCDPのデジタル参照のみを使用することができた。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - UniForensics: Face Forgery Detection via General Facial Representation [60.5421627990707]
高レベルの意味的特徴は摂動の影響を受けにくく、フォージェリー固有の人工物に限らないため、より強い一般化がある。
我々は、トランスフォーマーベースのビデオネットワークを活用する新しいディープフェイク検出フレームワークUniForensicsを導入し、顔の豊かな表現のためのメタファンクショナルな顔分類を行う。
論文 参考訳(メタデータ) (2024-07-26T20:51:54Z) - Contactless Fingerprint Biometric Anti-Spoofing: An Unsupervised Deep
Learning Approach [0.0]
本稿では、教師なしオートエンコーダと畳み込みブロックアテンションモジュールを組み合わせた革新的なアンチスプーフィング手法を提案する。
このスキームは平均で0.96%のBPCERを達成し、様々な種類のスプーフサンプルを含むプレゼンテーション攻撃では1.6%のAPCERを達成している。
論文 参考訳(メタデータ) (2023-11-07T17:19:59Z) - Anomaly localization for copy detection patterns through print
estimations [10.292065384528799]
コピー検出パターン(CDP)は、製品の偽造から保護するための最近の技術である。
ディープラーニングベースの偽造は、従来の認証システムによるオリジナルとほとんど区別できないことが示されている。
本研究では、デジタルテンプレートとプリント元のCDPのみを必要とする機械学習(ML)ベースの認証システムを設計する。
論文 参考訳(メタデータ) (2022-09-29T13:18:57Z) - Authentication of Copy Detection Patterns under Machine Learning
Attacks: A Supervised Approach [10.292065384528799]
コピー検出パターン(CDP)は、メーカーが偽造から製品を守るための魅力的な技術である。
これまでの研究によると、機械学習(ML)ベースの攻撃は高品質な偽物を生み出す可能性がある。
本研究では,教師付き学習(SL)の設定を前提とした,そのような性能について検討する。
論文 参考訳(メタデータ) (2022-06-23T15:58:28Z) - Mobile authentication of copy detection patterns [11.4928367384196]
本稿では,機械学習の観点から,コピー検出パターン(CDP)の不正コピーに対する認証的側面と抵抗性について検討する。
工業用プリンタにコードが印刷され、現代の携帯電話を介して登録された場合、実生活検証条件下で信頼性の高い認証に特別注意が払われる。
以上の結果から,最新の携帯電話の機械学習手法と技術的能力は,携帯端末上での偽造品のクラスにおけるCDPの確実な認証を可能にした。
論文 参考訳(メタデータ) (2022-03-04T16:07:26Z) - Machine learning attack on copy detection patterns: are 1x1 patterns
cloneable? [14.784426936848604]
我々は、機械学習に基づくコピー検出パターン(CDP)に対するコピー攻撃を検討する。
2つの産業用プリンタで作成されたサンプルに基づいて実験したところ、CDP認証で使用される単純な検出基準は、元のCDPと偽造品を確実に区別できないことがわかった。
論文 参考訳(メタデータ) (2021-10-05T17:06:28Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Artificial Fingerprinting for Generative Models: Rooting Deepfake
Attribution in Training Data [64.65952078807086]
光現実性画像生成は、GAN(Generative Adversarial Network)のブレークスルーにより、新たな品質レベルに達した。
しかし、このようなディープフェイクのダークサイド、すなわち生成されたメディアの悪意ある使用は、視覚的誤報に関する懸念を提起する。
我々は,モデルに人工指紋を導入することによって,深度検出の積極的な,持続可能なソリューションを模索する。
論文 参考訳(メタデータ) (2020-07-16T16:49:55Z) - Scalable Backdoor Detection in Neural Networks [61.39635364047679]
ディープラーニングモデルは、トロイの木馬攻撃に対して脆弱で、攻撃者はトレーニング中にバックドアをインストールして、結果のモデルが小さなトリガーパッチで汚染されたサンプルを誤識別させる。
本稿では,ラベル数と計算複雑性が一致しない新たなトリガリバースエンジニアリング手法を提案する。
実験では,提案手法が純モデルからトロイの木馬モデルを分離する際の完全なスコアを達成できることが観察された。
論文 参考訳(メタデータ) (2020-06-10T04:12:53Z) - Breaking certified defenses: Semantic adversarial examples with spoofed
robustness certificates [57.52763961195292]
本稿では,分類器のラベル付け機能だけでなく,証明書生成機能を利用した新たな攻撃を提案する。
提案手法は, 画像がクラス境界から遠ざかる大きな摂動を, 対向例の不受容性を保ちながら適用する。
論文 参考訳(メタデータ) (2020-03-19T17:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。