論文の概要: Detecting and Segmenting Adversarial Graphics Patterns from Images
- arxiv url: http://arxiv.org/abs/2108.09383v1
- Date: Fri, 20 Aug 2021 21:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-25 10:38:59.330063
- Title: Detecting and Segmenting Adversarial Graphics Patterns from Images
- Title(参考訳): 画像からの逆グラフパターンの検出とセグメンテーション
- Authors: Xiangyu Qu (1) and Stanley H. Chan (1) ((1) Purdue University)
- Abstract要約: 人工的なグラフィックパターン分割問題のような攻撃に対する防御を定式化する。
本稿では,いくつかのセグメンテーションアルゴリズムの有効性を評価し,その性能の観察に基づいて,この問題に適した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Adversarial attacks pose a substantial threat to computer vision system
security, but the social media industry constantly faces another form of
"adversarial attack" in which the hackers attempt to upload inappropriate
images and fool the automated screening systems by adding artificial graphics
patterns. In this paper, we formulate the defense against such attacks as an
artificial graphics pattern segmentation problem. We evaluate the efficacy of
several segmentation algorithms and, based on observation of their performance,
propose a new method tailored to this specific problem. Extensive experiments
show that the proposed method outperforms the baselines and has a promising
generalization capability, which is the most crucial aspect in segmenting
artificial graphics patterns.
- Abstract(参考訳): 敵の攻撃はコンピュータビジョンシステムのセキュリティに重大な脅威をもたらすが、ソーシャルメディア業界は常に、不適切な画像をアップロードし、人工的なグラフィックパターンを追加することで自動スクリーニングシステムを騙そうとする別のタイプの「敵の攻撃」に直面している。
本稿では,人工的なグラフィックパターン分割問題のような攻撃に対する防御を定式化する。
本稿では,いくつかのセグメンテーションアルゴリズムの有効性を評価し,その性能の観察に基づいて,この問題に適した新しい手法を提案する。
大規模な実験により,提案手法はベースラインよりも優れ,有望な一般化能力を有しており,人工グラフィックパターンのセグメント化において最も重要な側面であることがわかった。
関連論文リスト
- Adversarial Attack Against Images Classification based on Generative Adversarial Networks [0.0]
画像分類システムに対するアドリアック攻撃は、機械学習分野において常に重要な問題であった。
生成的敵ネットワークの普及に伴い、フェイク画像技術の誤用によりセキュリティ上の問題が相次いだ。
本研究は, 画像分類システムの弱点を把握し, 対人攻撃能力を向上させることを目的とした, 新たな対人攻撃手法を提案する。
論文 参考訳(メタデータ) (2024-12-21T15:23:34Z) - MirrorCheck: Efficient Adversarial Defense for Vision-Language Models [55.73581212134293]
本稿では,視覚言語モデルにおける対角的サンプル検出のための,新しい,しかしエレガントなアプローチを提案する。
本手法は,テキスト・トゥ・イメージ(T2I)モデルを用いて,ターゲットVLMが生成したキャプションに基づいて画像を生成する。
異なるデータセットで実施した経験的評価により,本手法の有効性が検証された。
論文 参考訳(メタデータ) (2024-06-13T15:55:04Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Adv-Attribute: Inconspicuous and Transferable Adversarial Attack on Face
Recognition [111.1952945740271]
Adv-Attribute (Adv-Attribute) は、顔認証に対する不明瞭で伝達可能な攻撃を生成するように設計されている。
FFHQとCelebA-HQデータセットの実験は、提案されたAdv-Attributeメソッドが最先端の攻撃成功率を達成することを示している。
論文 参考訳(メタデータ) (2022-10-13T09:56:36Z) - Scale-free Photo-realistic Adversarial Pattern Attack [20.818415741759512]
Generative Adversarial Networks (GAN)は、より意味論的に意味のあるテクスチャパターンを合成することによって、この問題に部分的に対処することができる。
本稿では,任意のスケールの画像に対して意味論的に意味のある敵対パターンを世界規模で合成する,スケールフリーな生成ベースアタックアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-08-12T11:25:39Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Adversarial Attacks on Graph Classification via Bayesian Optimisation [25.781404695921122]
本稿では,グラフ分類モデルに対する新たな最適化に基づく攻撃手法を提案する。
提案手法は, 摂動に関して, ブラックボックスであり, クエリ効率が高く, 相似である。
提案手法の有効性と柔軟性を幅広いグラフ分類タスクで実証的に検証する。
論文 参考訳(メタデータ) (2021-11-04T13:01:20Z) - Robustness and Generalization via Generative Adversarial Training [21.946687274313177]
本稿では,テストセットとドメイン外サンプルに対するモデルの一般化を同時に改善する手法であるジェネレーティブ・アドバイサル・トレーニングを提案する。
提案手法は、クリーンな画像やドメイン外サンプルのモデルの性能を向上させるだけでなく、予期せぬ攻撃に対して堅牢であることを示す。
論文 参考訳(メタデータ) (2021-09-06T22:34:04Z) - Deep Image Destruction: A Comprehensive Study on Vulnerability of Deep
Image-to-Image Models against Adversarial Attacks [104.8737334237993]
本稿では,敵対的攻撃に対する深部画像対画像モデルの脆弱性に関する包括的調査を行う。
一般的な5つの画像処理タスクでは、さまざまな観点から16の深いモデルが分析される。
画像分類タスクとは異なり、画像間タスクの性能劣化は様々な要因によって大きく異なることが示される。
論文 参考訳(メタデータ) (2021-04-30T14:20:33Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。