論文の概要: ARIA: Adversarially Robust Image Attribution for Content Provenance
- arxiv url: http://arxiv.org/abs/2202.12860v1
- Date: Fri, 25 Feb 2022 18:11:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:35:44.698891
- Title: ARIA: Adversarially Robust Image Attribution for Content Provenance
- Title(参考訳): ARIA: コンテントプロヴァンスに対する可逆的ロバストなイメージ属性
- Authors: Maksym Andriushchenko, Xiaoyang Rebecca Li, Geoffrey Oxholm, Thomas
Gittings, Tu Bui, Nicolas Flammarion, John Collomosse
- Abstract要約: 本稿では,不正確な画像帰属を生じさせる有効な逆画像を生成する方法について述べる。
次に,深い視覚的フィンガープリントモデルに対する非知覚的敵対攻撃を防ぐアプローチについて述べる。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
- 参考スコア(独自算出の注目度): 25.217001579437635
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image attribution -- matching an image back to a trusted source -- is an
emerging tool in the fight against online misinformation. Deep visual
fingerprinting models have recently been explored for this purpose. However,
they are not robust to tiny input perturbations known as adversarial examples.
First we illustrate how to generate valid adversarial images that can easily
cause incorrect image attribution. Then we describe an approach to prevent
imperceptible adversarial attacks on deep visual fingerprinting models, via
robust contrastive learning. The proposed training procedure leverages training
on $\ell_\infty$-bounded adversarial examples, it is conceptually simple and
incurs only a small computational overhead. The resulting models are
substantially more robust, are accurate even on unperturbed images, and perform
well even over a database with millions of images. In particular, we achieve
91.6% standard and 85.1% adversarial recall under $\ell_\infty$-bounded
perturbations on manipulated images compared to 80.1% and 0.0% from prior work.
We also show that robustness generalizes to other types of imperceptible
perturbations unseen during training. Finally, we show how to train an
adversarially robust image comparator model for detecting editorial changes in
matched images.
- Abstract(参考訳): 画像の帰属 -- 信頼されたソースにイメージを戻す -- は、オンラインの誤報と戦う新たなツールだ。
この目的のために、近頃、深い視覚の指紋モデルが研究されている。
しかし、それらは逆例として知られる小さな入力摂動に対して堅牢ではない。
まず,不正確な画像トリビューションを発生させる有効な逆画像の生成方法について述べる。
次に,強固なコントラスト学習を通じて,深部視覚フィンガープリンティングモデルに対する知覚不能な敵意攻撃を防止する手法について述べる。
提案したトレーニング手順は、$\ell_\infty$-bounded adversarial の例によるトレーニングを利用するが、概念的には単純であり、計算オーバーヘッドが小さいだけである。
結果のモデルは、はるかに堅牢で、不飽和画像でも正確であり、数百万の画像を持つデータベースでも、良好に動作します。
特に、操作された画像に対する$\ell_\infty$-boundedな摂動の下で、91.6%の標準と85.1%の逆のリコールを達成する。
また,学習中に知覚不能な他のタイプの摂動にロバスト性が一般化することを示した。
最後に,マッチング画像の編集変更を検出するための,可逆的ロバストな画像コンパレータモデルをトレーニングする方法を示す。
関連論文リスト
- Data Attribution for Text-to-Image Models by Unlearning Synthesized Images [71.23012718682634]
テキスト・ツー・イメージ・モデルにおけるデータ帰属の目標は、新しい画像の生成に最も影響を与えるトレーニング画像を特定することである。
本稿では,高能率画像の同定を効果的に行う新しい手法を提案する。
論文 参考訳(メタデータ) (2024-06-13T17:59:44Z) - Improving Adversarial Robustness of Masked Autoencoders via Test-time
Frequency-domain Prompting [133.55037976429088]
BERTプリトレーニング(BEiT, MAE)を備えた視覚変換器の対向ロバスト性について検討する。
意外な観察は、MAEが他のBERT事前訓練法よりも敵の頑健さが著しく悪いことである。
我々は,MAEの対角的堅牢性を高めるための,シンプルで効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-08-20T16:27:17Z) - Adversarial Purification through Representation Disentanglement [21.862799765511976]
ディープラーニングモデルは敵の例に弱いため、理解不能な間違いを犯す。
現在の防御法、特に浄化法は、自然画像の学習と復元によってノイズを除去する傾向がある。
本研究では, 自然画像の乱れと逆流を前処理防御として提示し, 新たな逆流浄化法を提案する。
論文 参考訳(メタデータ) (2021-10-15T01:45:31Z) - With a Little Help from My Friends: Nearest-Neighbor Contrastive
Learning of Visual Representations [87.72779294717267]
対比損失で最も近い隣り合わせを正として使用すると、ImageNet分類でパフォーマンスが大幅に向上します。
提案手法が複雑なデータ拡張に依存しないことを実証的に証明する。
論文 参考訳(メタデータ) (2021-04-29T17:56:08Z) - Error Diffusion Halftoning Against Adversarial Examples [85.11649974840758]
敵対的な例には、深いニューラルネットワークを誤った予測にだますことができる慎重に作られた摂動が含まれます。
誤り拡散のハーフトン化に基づく新しい画像変換防御を提案し、逆転の例に対して防御するための逆転訓練と組み合わせます。
論文 参考訳(メタデータ) (2021-01-23T07:55:02Z) - Stylized Adversarial Defense [105.88250594033053]
逆行訓練は摂動パターンを生成し、モデルを堅牢化するためのトレーニングセットにそれらを含む。
我々は、より強力な敵を作るために、機能空間から追加情報を活用することを提案する。
我々の対人訓練アプローチは、最先端の防御と比べて強い堅牢性を示している。
論文 参考訳(メタデータ) (2020-07-29T08:38:10Z) - Robust Face Verification via Disentangled Representations [20.393894616979402]
顔認証のための頑健なアルゴリズムを導入し、同一人物か否かを判定する。
我々は,学習中に生成モデルを,対向雑音を除去するテスト時間浄化装置の代わりに,オンライン増強法として利用する。
逆行訓練と組み合わせることで,提案手法は弱内部解法と収束し,ホワイトボックスの物理的攻撃に対する評価において,最先端の工法よりもクリーンで堅牢な精度を有することを示す。
論文 参考訳(メタデータ) (2020-06-05T19:17:02Z) - Towards Achieving Adversarial Robustness by Enforcing Feature
Consistency Across Bit Planes [51.31334977346847]
我々は、高ビット平面の情報に基づいて粗い印象を形成するためにネットワークを訓練し、低ビット平面を用いて予測を洗練させる。
異なる量子化画像間で学習した表現に一貫性を付与することにより、ネットワークの対角的ロバスト性が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-04-01T09:31:10Z) - Applying Tensor Decomposition to image for Robustness against
Adversarial Attack [3.347059384111439]
小さな摂動を加えることで、ディープラーニングモデルを簡単に騙すことができる。
本稿では,逆例に対してモデルを守るためにテンソル分解を組み合わせることを提案する。
論文 参考訳(メタデータ) (2020-02-28T18:30:22Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。