論文の概要: Steal Now and Attack Later: Evaluating Robustness of Object Detection against Black-box Adversarial Attacks
- arxiv url: http://arxiv.org/abs/2404.15881v1
- Date: Wed, 24 Apr 2024 13:51:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-26 19:01:10.935124
- Title: Steal Now and Attack Later: Evaluating Robustness of Object Detection against Black-box Adversarial Attacks
- Title(参考訳): 現在とその後の攻撃:ブラックボックス攻撃に対する物体検出のロバスト性の評価
- Authors: Erh-Chung Chen, Pin-Yu Chen, I-Hsin Chung, Che-Rung Lee,
- Abstract要約: AIサービスの潜在的な脆弱性を悪用するために、"steal now, later"攻撃を使用できる。
攻撃の平均費用は1ドル未満で、AIセキュリティに重大な脅威をもたらす。
- 参考スコア(独自算出の注目度): 47.9744734181236
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Latency attacks against object detection represent a variant of adversarial attacks that aim to inflate the inference time by generating additional ghost objects in a target image. However, generating ghost objects in the black-box scenario remains a challenge since information about these unqualified objects remains opaque. In this study, we demonstrate the feasibility of generating ghost objects in adversarial examples by extending the concept of "steal now, decrypt later" attacks. These adversarial examples, once produced, can be employed to exploit potential vulnerabilities in the AI service, giving rise to significant security concerns. The experimental results demonstrate that the proposed attack achieves successful attacks across various commonly used models and Google Vision API without any prior knowledge about the target model. Additionally, the average cost of each attack is less than \$ 1 dollars, posing a significant threat to AI security.
- Abstract(参考訳): オブジェクト検出に対する遅延攻撃は、ターゲット画像に追加のゴーストオブジェクトを生成して推論時間をインフレーションすることを目的とした、敵攻撃の一種である。
しかしながら、ブラックボックスのシナリオでゴーストオブジェクトを生成することは、これらの資格のないオブジェクトに関する情報が不透明であるため、依然として課題である。
本研究では, 敵の事例にゴーストオブジェクトを生成できる可能性について, 「現在, 復号化」 という概念を拡張して示す。
これらの敵対的な例は、一度生成されると、AIサービスの潜在的な脆弱性を悪用するために使用され、重大なセキュリティ上の懸念を引き起こす。
実験結果から,提案した攻撃は,対象モデルに関する事前知識を必要とせずに,様々な一般的なモデルとGoogle Vision APIをまたいだ攻撃を成功させることが示された。
さらに、攻撃の平均コストは1ドル以下で、AIセキュリティに重大な脅威をもたらす。
関連論文リスト
- Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - Mask-based Invisible Backdoor Attacks on Object Detection [0.0]
ディープラーニングモデルは、バックドア攻撃に弱い。
本研究では,マスクベースのアプローチを用いて,物体検出に対する効果的な視覚的バックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-20T12:27:30Z) - Impart: An Imperceptible and Effective Label-Specific Backdoor Attack [15.859650783567103]
我々は,攻撃者が被害者モデルにアクセスできないシナリオにおいて,Impartという新たな非知覚的なバックドア攻撃フレームワークを提案する。
具体的には、オール・ツー・オール・セッティングの攻撃能力を高めるために、まずラベル固有の攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-18T07:22:56Z) - Attacking by Aligning: Clean-Label Backdoor Attacks on Object Detection [24.271795745084123]
ディープニューラルネットワーク(DNN)は、オブジェクト検出タスクにおいて前例のない成功を収めている。
対象物検出タスクに対するバックドア攻撃は、適切に調査され、調査されていない。
そこで本研究では,オブジェクト検出に対して,接地真理アノテーションを変更することなく,簡易かつ効果的なバックドア攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-07-19T22:46:35Z) - Attack-SAM: Towards Attacking Segment Anything Model With Adversarial
Examples [68.5719552703438]
Segment Anything Model (SAM) は、様々なダウンストリームタスクにおける印象的なパフォーマンスのために、最近大きな注目を集めている。
深い視覚モデルは敵の例に弱いと広く認識されており、それはモデルを騙して知覚不能な摂動で間違った予測をする。
この研究は、SAMの攻撃方法に関する総合的な調査を敵対的な例で実施した最初のものである。
論文 参考訳(メタデータ) (2023-05-01T15:08:17Z) - GLOW: Global Layout Aware Attacks for Object Detection [27.46902978168904]
敵攻撃は、予測器が誤った結果を出力するような摂動画像を狙う。
本稿では,グローバルなレイアウト認識型敵攻撃を発生させることにより,様々な攻撃要求に対処するアプローチを提案する。
実験では,複数種類の攻撃要求を設計し,MS検証セット上でのアイデアの検証を行う。
論文 参考訳(メタデータ) (2023-02-27T22:01:34Z) - Object-fabrication Targeted Attack for Object Detection [54.10697546734503]
物体検出の敵攻撃は 標的攻撃と未標的攻撃を含む。
新たなオブジェクトファブリケーションターゲット攻撃モードは、特定のターゲットラベルを持つ追加の偽オブジェクトをファブリケートする検出器を誤解させる可能性がある。
論文 参考訳(メタデータ) (2022-12-13T08:42:39Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Zero-Query Transfer Attacks on Context-Aware Object Detectors [95.18656036716972]
敵は、ディープニューラルネットワークが誤った分類結果を生成するような摂動画像を攻撃する。
自然の多目的シーンに対する敵対的攻撃を防御するための有望なアプローチは、文脈整合性チェックを課すことである。
本稿では,コンテキスト整合性チェックを回避可能な,コンテキスト整合性攻撃を生成するための最初のアプローチを提案する。
論文 参考訳(メタデータ) (2022-03-29T04:33:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。