論文の概要: Adversarial Attacks on Video Object Segmentation with Hard Region
Discovery
- arxiv url: http://arxiv.org/abs/2309.13857v1
- Date: Mon, 25 Sep 2023 03:52:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 17:14:07.024067
- Title: Adversarial Attacks on Video Object Segmentation with Hard Region
Discovery
- Title(参考訳): ハード領域発見によるビデオオブジェクトセグメンテーションの敵対的攻撃
- Authors: Ping Li and Yu Zhang and Li Yuan and Jian Zhao and Xianghua Xu and
Xiaoqin Zhang
- Abstract要約: ビデオオブジェクトのセグメンテーションは、ビデオ編集、自律運転、人間とロボットの相互作用など、様々なコンピュータビジョンタスクに適用されている。
ディープニューラルネットワークは、ほとんど人間の知覚できない摂動によって攻撃される入力である敵の例に対して脆弱である。
これは、入力ビデオへの小さな摂動が攻撃リスクをもたらすため、高要求タスクにおけるセキュリティ上の問題を引き起こす。
- 参考スコア(独自算出の注目度): 31.882369005280793
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Video object segmentation has been applied to various computer vision tasks,
such as video editing, autonomous driving, and human-robot interaction.
However, the methods based on deep neural networks are vulnerable to
adversarial examples, which are the inputs attacked by almost
human-imperceptible perturbations, and the adversary (i.e., attacker) will fool
the segmentation model to make incorrect pixel-level predictions. This will
rise the security issues in highly-demanding tasks because small perturbations
to the input video will result in potential attack risks. Though adversarial
examples have been extensively used for classification, it is rarely studied in
video object segmentation. Existing related methods in computer vision either
require prior knowledge of categories or cannot be directly applied due to the
special design for certain tasks, failing to consider the pixel-wise region
attack. Hence, this work develops an object-agnostic adversary that has
adversarial impacts on VOS by first-frame attacking via hard region discovery.
Particularly, the gradients from the segmentation model are exploited to
discover the easily confused region, in which it is difficult to identify the
pixel-wise objects from the background in a frame. This provides a hardness map
that helps to generate perturbations with a stronger adversarial power for
attacking the first frame. Empirical studies on three benchmarks indicate that
our attacker significantly degrades the performance of several state-of-the-art
video object segmentation models.
- Abstract(参考訳): ビデオオブジェクトのセグメンテーションは、ビデオ編集、自律運転、人間とロボットの相互作用など、様々なコンピュータビジョンタスクに適用されている。
しかし、深層ニューラルネットワークに基づく手法は、ほぼ人間に受け入れられない摂動によって攻撃される入力である敵の例に対して脆弱であり、敵(すなわち攻撃者)はセグメンテーションモデルを騙して不正確なピクセルレベルの予測を行う。
これは、入力ビデオへの小さな摂動が攻撃リスクをもたらすため、高要求タスクにおけるセキュリティ上の問題を引き起こす。
逆の例は分類に広く用いられているが、ビデオオブジェクトのセグメンテーションではほとんど研究されていない。
コンピュータビジョンにおける既存の関連する手法は、カテゴリの事前知識を必要とするか、特定のタスクの特別な設計のために直接適用できないかのいずれかであり、ピクセル単位の領域攻撃を考慮できない。
したがって、この研究は、ハード領域発見による第1フレーム攻撃によって、VOSに敵対的な影響を及ぼすオブジェクト非依存の敵を開発する。
特にセグメンテーションモデルからの勾配を利用して、フレーム内の背景から画素単位の物体を特定するのが難しく、容易に混乱した領域を発見する。
これは、第1フレームを攻撃するための強力な敵力を持つ摂動を生成するのに役立つ硬度マップを提供する。
3つのベンチマークに関する実証研究は、攻撃者が最先端のビデオオブジェクトセグメンテーションモデルの性能を著しく低下させていることを示している。
関連論文リスト
- A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - To Make Yourself Invisible with Adversarial Semantic Contours [47.755808439588094]
逆セマンティック・コンター(英: Adversarial Semantic Contour、ASC)は、物体の輪郭の前に騙されたスパース・アタックのベイズ的定式化の見積もりである。
ASCは、異なるアーキテクチャを持つ9つの近代検出器の予測を損なう可能性があることを示す。
我々は、様々なアーキテクチャを持つ物体検出器の共通弱点である輪郭について注意を払って結論付けた。
論文 参考訳(メタデータ) (2023-03-01T07:22:39Z) - Efficient Robustness Assessment via Adversarial Spatial-Temporal Focus
on Videos [0.0]
本稿では,ビデオの空間時間的アタック(AstFocus)を新たに設計し,同時に焦点を絞ったキーフレームとキー領域に対するアタックを行う。
連続的なクエリにより、キーフレームとキー領域からなる縮小された検索空間が正確になっている。
4つの主流ビデオ認識モデルと3つの広く使われているアクション認識データセットの実験は、提案したAstFocus攻撃がSOTA法より優れていることを示した。
論文 参考訳(メタデータ) (2023-01-03T00:28:57Z) - On the Real-World Adversarial Robustness of Real-Time Semantic
Segmentation Models for Autonomous Driving [59.33715889581687]
現実世界の敵対的な例(通常はパッチの形で)の存在は、安全クリティカルなコンピュータビジョンタスクにおけるディープラーニングモデルの使用に深刻な脅威をもたらす。
本稿では,異なる種類の対立パッチを攻撃した場合のセマンティックセグメンテーションモデルのロバスト性を評価する。
画素の誤分類を誘導する攻撃者の能力を改善するために, 新たな損失関数を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:33:43Z) - Video Salient Object Detection via Contrastive Features and Attention
Modules [106.33219760012048]
本稿では,注目モジュールを持つネットワークを用いて,映像の有意な物体検出のためのコントラスト特徴を学習する。
コアテンションの定式化は、低レベル特徴と高レベル特徴を組み合わせるために用いられる。
提案手法は計算量が少なく,最先端の手法に対して良好に動作することを示す。
論文 参考訳(メタデータ) (2021-11-03T17:40:32Z) - State-of-the-art segmentation network fooled to segment a heart symbol
in chest X-Ray images [5.808118248166566]
アドリアックは、入力データを悪意を持って変更し、自動決定システムの予測を誤解させる。
胸部X線による解剖学的構造の変化に対する逆行性攻撃の効果について検討した。
論文 参考訳(メタデータ) (2021-03-31T22:20:59Z) - Red Carpet to Fight Club: Partially-supervised Domain Transfer for Face
Recognition in Violent Videos [12.534785814117065]
種々の有害条件下でのクロスドメイン認識を研究するために,WildestFacesデータセットを導入した。
我々は、このクリーンで暴力的な認識タスクのための厳密な評価プロトコルを確立し、提案したデータセットと方法の詳細な分析を示す。
論文 参考訳(メタデータ) (2020-09-16T09:45:33Z) - Over-the-Air Adversarial Flickering Attacks against Video Recognition
Networks [54.82488484053263]
ビデオ分類のためのディープニューラルネットワークは、敵の操作を受けることができる。
本稿では,フリックング時間摂動を導入することで,ビデオ分類器を騙す操作手法を提案する。
攻撃はいくつかの標的モデルに実装され、攻撃の伝達性が実証された。
論文 参考訳(メタデータ) (2020-02-12T17:58:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。