論文の概要: Evaluating Adversarial Robustness on Document Image Classification
- arxiv url: http://arxiv.org/abs/2304.12486v1
- Date: Mon, 24 Apr 2023 22:57:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-26 22:26:50.020978
- Title: Evaluating Adversarial Robustness on Document Image Classification
- Title(参考訳): 文書画像分類における逆ロバスト性の評価
- Authors: Timoth\'ee Fronteau, Arnaud Paran and Aymen Shabou
- Abstract要約: 我々は、敵の攻撃哲学をドキュメンタリーや自然データに適用し、そのような攻撃に対してモデルを保護する。
我々は、未目標のグラデーションベース、トランスファーベース、スコアベースの攻撃に焦点を合わせ、敵の訓練の影響を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks and defenses have gained increasing interest on computer
vision systems in recent years, but as of today, most investigations are
limited to images. However, many artificial intelligence models actually handle
documentary data, which is very different from real world images. Hence, in
this work, we try to apply the adversarial attack philosophy on documentary and
natural data and to protect models against such attacks. We focus our work on
untargeted gradient-based, transfer-based and score-based attacks and evaluate
the impact of adversarial training, JPEG input compression and grey-scale input
transformation on the robustness of ResNet50 and EfficientNetB0 model
architectures. To the best of our knowledge, no such work has been conducted by
the community in order to study the impact of these attacks on the document
image classification task.
- Abstract(参考訳): 近年、敵の攻撃や防衛はコンピュータビジョンシステムへの関心が高まっているが、今日ではほとんどの調査は画像に限られている。
しかし、多くの人工知能モデルは、実世界の画像とは大きく異なるドキュメンタリーデータを扱う。
そこで,本研究では,敵攻撃の考え方をドキュメンタリーや自然データに適用し,そのような攻撃に対してモデルを保護する。
本研究では,ResNet50とEfficientNetB0モデルアーキテクチャのロバスト性に対する,非目標の勾配ベース,転送ベース,スコアベースの攻撃に焦点をあて,敵のトレーニング,JPEG入力圧縮,グレースケール入力変換の影響を評価する。
私たちの知る限り、これらの攻撃が文書画像分類タスクに与える影響を研究するため、コミュニティによるそのような作業は行われていません。
関連論文リスト
- MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - Adversarial Attacks on Image Classification Models: FGSM and Patch
Attacks and their Impact [0.0]
本章では、畳み込みニューラルネットワーク(CNN)上に構築された画像分類モデルに対する逆攻撃の概念を紹介する。
CNNは画像分類タスクで使用される非常に人気のあるディープラーニングモデルである。
2つの非常によく知られた敵対的攻撃について論じ、画像分類器の性能への影響について分析した。
論文 参考訳(メタデータ) (2023-07-05T06:40:08Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Recent improvements of ASR models in the face of adversarial attacks [28.934863462633636]
音声認識モデルは敵攻撃に対して脆弱である。
異なる攻撃アルゴリズムの相対的強度は、モデルアーキテクチャを変更する際に大きく異なることを示す。
ソースコードをパッケージとしてリリースし、将来の攻撃と防御の評価に役立ちます。
論文 参考訳(メタデータ) (2022-03-29T22:40:37Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z) - Dual Manifold Adversarial Robustness: Defense against Lp and non-Lp
Adversarial Attacks [154.31827097264264]
敵の訓練は、境界Lpノルムを持つ攻撃脅威モデルに対する一般的な防衛戦略である。
本稿では,2次元マニフォールド逆行訓練(DMAT)を提案する。
我々のDMATは、通常の画像の性能を改善し、Lp攻撃に対する標準的な敵の訓練と同等の堅牢性を達成する。
論文 参考訳(メタデータ) (2020-09-05T06:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。