論文の概要: Evaluating Transfer-based Targeted Adversarial Perturbations against
Real-World Computer Vision Systems based on Human Judgments
- arxiv url: http://arxiv.org/abs/2206.01467v1
- Date: Fri, 3 Jun 2022 09:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 14:02:43.929455
- Title: Evaluating Transfer-based Targeted Adversarial Perturbations against
Real-World Computer Vision Systems based on Human Judgments
- Title(参考訳): 人的判断に基づく実世界のコンピュータビジョンシステムに対する移動型対向的摂動の評価
- Authors: Zhengyu Zhao and Nga Dang and Martha Larson
- Abstract要約: コンピュータビジョンシステムは敵の摂動に対して極めて脆弱である。
本稿では,現実的なシナリオにおける移動型対向画像の探索に向けて第一歩を踏み出した。
主なコントリビューションには、Google Cloud Vision API上での攻撃成功に対する、広範な人的判断に基づく評価が含まれています。
- 参考スコア(独自算出の注目度): 2.600494734548762
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Computer vision systems are remarkably vulnerable to adversarial
perturbations. Transfer-based adversarial images are generated on one (source)
system and used to attack another (target) system. In this paper, we take the
first step to investigate transfer-based targeted adversarial images in a
realistic scenario where the target system is trained on some private data with
its inventory of semantic labels not publicly available. Our main contributions
include an extensive human-judgment-based evaluation of attack success on the
Google Cloud Vision API and additional analysis of the different behaviors of
Google Cloud Vision in face of original images vs. adversarial images.
Resources are publicly available at
\url{https://github.com/ZhengyuZhao/Targeted-Tansfer/blob/main/google_results.zip}.
- Abstract(参考訳): コンピュータビジョンシステムは敵の摂動に対して極めて脆弱である。
転送ベースの敵画像は、ある(ソース)システム上で生成され、別の(ターゲット)システムを攻撃するために使用される。
本稿では,移動型対向画像に対して,意味ラベルの在庫が公開されていない私的データに基づいて,対象システムを訓練する現実的なシナリオで,最初のステップを踏み出す。
主なコントリビューションには、Google Cloud Vision API上での攻撃成功に対する人的判断に基づく広範な評価と、オリジナル画像と逆画像との対面におけるGoogle Cloud Visionのさまざまな振る舞いの分析が含まれています。
リソースは \url{https://github.com/ZhengyuZhao/Targeted-Tansfer/blob/main/google_results.zip} で公開されている。
関連論文リスト
- Replace-then-Perturb: Targeted Adversarial Attacks With Visual Reasoning for Vision-Language Models [6.649753747542211]
本稿では,新たな敵攻撃手法であるReplace-then-PerturbとContrastive-Advを提案する。
Replace-then-Perturbでは、まずテキスト誘導セグメンテーションモデルを用いて画像中の対象物を見つける。
これにより、元の画像の全体的な完全性を維持しつつ、所望のプロンプトに対応するターゲット画像を生成することができる。
論文 参考訳(メタデータ) (2024-11-01T04:50:08Z) - AdvGen: Physical Adversarial Attack on Face Presentation Attack
Detection Systems [17.03646903905082]
敵対的攻撃が注目を集めており、認識システムの学習戦略をデジタルで欺こうとしている。
本稿では,物理世界のシナリオにおいて,顔認証システムの逆画像に対する脆弱性を実証する。
本稿では,自動生成支援ネットワークであるAdvGenを提案し,印刷・再生攻撃をシミュレートし,最先端のPADを騙すことのできる逆画像を生成する。
論文 参考訳(メタデータ) (2023-11-20T13:28:42Z) - Human-imperceptible, Machine-recognizable Images [76.01951148048603]
より良い開発AIシステムと、センシティブなトレーニングデータから距離を置くことの間の、ソフトウェアエンジニアに関する大きな対立が露呈している。
画像が暗号化され、人間に認識され、機械に認識される」という、効率的なプライバシー保護学習パラダイムを提案する。
提案手法は,機械が認識可能な情報を保存しながら,暗号化された画像が人間に認識されなくなることを保証できることを示す。
論文 参考訳(メタデータ) (2023-06-06T13:41:37Z) - Physical Adversarial Attack meets Computer Vision: A Decade Survey [55.38113802311365]
本稿では,身体的敵意攻撃の概要を概観する。
本研究は,身体的敵意攻撃の性能を体系的に評価する第一歩を踏み出した。
提案する評価基準であるhiPAAは6つの視点から構成される。
論文 参考訳(メタデータ) (2022-09-30T01:59:53Z) - Deep Bayesian Image Set Classification: A Defence Approach against
Adversarial Attacks [32.48820298978333]
ディープニューラルネットワーク(DNN)は、敵にほぼ自信を持って騙される可能性がある。
実際には、敵対的な例として知られる、注意深く摂動された画像に対するディープラーニングシステムの脆弱性は、物理世界のアプリケーションに深刻なセキュリティ上の脅威をもたらす。
本稿では,幅広い敵攻撃に対する防御フレームワークとして,頑健なベイズ画像集合分類を提案する。
論文 参考訳(メタデータ) (2021-08-23T14:52:44Z) - Simple Transparent Adversarial Examples [65.65977217108659]
本研究は,ロバスト性を評価するための簡易な方法として,秘密の埋め込みと透明な敵の例を紹介した。
その結果、ハイリスクなアプリケーションにAPIが使用されるという深刻な脅威が生じる。
論文 参考訳(メタデータ) (2021-05-20T11:54:26Z) - QAIR: Practical Query-efficient Black-Box Attacks for Image Retrieval [56.51916317628536]
画像検索に対するクエリベースの攻撃について検討し,ブラックボックス設定下での対比例に対する堅牢性を評価する。
新たな関連性に基づく損失は、攻撃前後のトップk検索結果のセット類似度を測定して攻撃効果を定量化するように設計されている。
提案手法は,ブラックボックス設定による画像検索システムに対するクエリ数が少なく,高い攻撃成功率を達成できることを示す実験である。
論文 参考訳(メタデータ) (2021-03-04T10:18:43Z) - Defense-friendly Images in Adversarial Attacks: Dataset and Metrics for
Perturbation Difficulty [28.79528737626505]
データセットバイアスは、敵機械学習、特に防衛評価における問題である。
本稿では,攻撃に対する耐性と,敵攻撃時のランダム画像よりも良好な回復性を有する頑健な画像群を初めて報告する。
本稿では,データセット内のロバストな画像の割合を決定するための3つの指標を提案し,データセットのバイアスを決定するためのスコアを提供する。
論文 参考訳(メタデータ) (2020-11-05T06:21:24Z) - Understanding Adversarial Examples from the Mutual Influence of Images
and Perturbations [83.60161052867534]
クリーンな画像と敵の摂動を遠ざけることで敵の例を分析し,その相互への影響を分析した。
以上の結果から,画像と普遍摂動の関係に対する新たな視点が示唆された。
我々は、オリジナルトレーニングデータを活用することなく、目標とするユニバーサルアタックの挑戦的なタスクを最初に達成した人物です。
論文 参考訳(メタデータ) (2020-07-13T05:00:09Z) - Self-Supervised Viewpoint Learning From Image Collections [116.56304441362994]
本稿では,解析・合成パラダイムを取り入れた新たな学習フレームワークを提案する。
提案手法は,人間の顔,車,バス,電車など,複数の対象カテゴリに対して,完全に教師されたアプローチに対して競争力を発揮することを示す。
論文 参考訳(メタデータ) (2020-04-03T22:01:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。