論文の概要: Can You Spot the Chameleon? Adversarially Camouflaging Images from
Co-Salient Object Detection
- arxiv url: http://arxiv.org/abs/2009.09258v5
- Date: Mon, 18 Apr 2022 02:39:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-16 21:38:56.788810
- Title: Can You Spot the Chameleon? Adversarially Camouflaging Images from
Co-Salient Object Detection
- Title(参考訳): カメレオンを見つけられるか?
共塩物体検出による逆カモフレーション画像
- Authors: Ruijun Gao, Qing Guo, Felix Juefei-Xu, Hongkai Yu, Huazhu Fu, Wei
Feng, Yang Liu, Song Wang
- Abstract要約: Co-Salient Object Detection (CoSOD)は近年,検索タスクにおいて重要な役割を担っている。
本稿では,対人共同攻撃という新たな課題を特定する。
我々は,最初のブラックボックス共同対向露光とノイズアタック(Jadena)を提案する。
- 参考スコア(独自算出の注目度): 46.95646405874199
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Co-salient object detection (CoSOD) has recently achieved significant
progress and played a key role in retrieval-related tasks. However, it
inevitably poses an entirely new safety and security issue, i.e., highly
personal and sensitive content can potentially be extracting by powerful CoSOD
methods. In this paper, we address this problem from the perspective of
adversarial attacks and identify a novel task: adversarial co-saliency attack.
Specially, given an image selected from a group of images containing some
common and salient objects, we aim to generate an adversarial version that can
mislead CoSOD methods to predict incorrect co-salient regions. Note that,
compared with general white-box adversarial attacks for classification, this
new task faces two additional challenges: (1) low success rate due to the
diverse appearance of images in the group; (2) low transferability across CoSOD
methods due to the considerable difference between CoSOD pipelines. To address
these challenges, we propose the very first black-box joint adversarial
exposure and noise attack (Jadena), where we jointly and locally tune the
exposure and additive perturbations of the image according to a newly designed
high-feature-level contrast-sensitive loss function. Our method, without any
information on the state-of-the-art CoSOD methods, leads to significant
performance degradation on various co-saliency detection datasets and makes the
co-salient objects undetectable. This can have strong practical benefits in
properly securing the large number of personal photos currently shared on the
Internet. Moreover, our method is potential to be utilized as a metric for
evaluating the robustness of CoSOD methods.
- Abstract(参考訳): Co-Salient Object Detection (CoSOD)は近年,検索タスクにおいて重要な役割を担っている。
しかし、それは必然的に全く新しい安全性とセキュリティの問題を生じさせ、すなわち、強力なCoSOD法によって、高度に個人的かつ機密性の高いコンテンツが抽出される可能性がある。
本稿では,敵攻撃の観点からこの問題に対処し,新たな課題である敵同時攻撃を識別する。
特に,共通かつ有望な物体を含む画像群から選択された画像に対して,cosod法を誤解し,不正確な共塩領域を予測できる敵バージョンを生成することを目的としている。
分類のための一般的なホワイトボックス攻撃と比較すると,(1)グループ内の画像の多様さによる成功率の低下,(2)cosodパイプライン間の差異によるcosodメソッド間の転送率の低下,の2つの課題に直面している。
これらの課題に対処するために,我々は,新たに設計された高次コントラスト感度損失関数に従って,画像の露出と付加的な摂動を共同かつ局所的に調整する,最初のブラックボックス対向的ノイズアタック(Jadena)を提案する。
提案手法は,最先端のCoSOD法に関する情報を得られず,各種共塩度検出データセットの性能劣化を招き,共塩性オブジェクトを検出不能にする。
これは、現在インターネットで共有されている多数の個人写真を確実に確保する上で、強力な実用上の利点となる。
さらに,本手法はCoSOD法のロバスト性を評価する指標として有効である可能性が示唆された。
関連論文リスト
- Robust infrared small target detection using self-supervised and a contrario paradigms [1.2224547302812558]
我々は、赤外線小ターゲット検出(IRSTD)を改善するために、コントラリオパラダイムと自己監視学習(SSL)を組み合わせた新しいアプローチを導入する。
一方、YOLO検出ヘッドへの対向基準の統合は、誤報を効果的に制御しつつ、小型で予期せぬ物体に対する特徴マップ応答を高める。
本研究は, YOLOを用いた小型物体検出に適用した場合, インスタンス識別手法がマスク画像モデリング手法より優れていることを示す。
論文 参考訳(メタデータ) (2024-10-09T21:08:57Z) - CosalPure: Learning Concept from Group Images for Robust Co-Saliency Detection [22.82243087156918]
Co-Salient Object Detection (CoSOD) は、特定の画像群をまたいだ共通領域(通常は前景)を特定することを目的としている。
逆行性摂動は、いくつかの逆行性摂動の影響を受けやすいため、かなりの精度の低下につながる。
本稿では,入力群画像に基づいて,共分散オブジェクトの概念を学習し,新しいロバストネス向上フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-27T13:33:14Z) - Uncertainty-based Detection of Adversarial Attacks in Semantic
Segmentation [16.109860499330562]
本稿では,セマンティックセグメンテーションにおける敵攻撃検出のための不確実性に基づくアプローチを提案する。
本研究は,複数種類の敵対的攻撃を対象とする摂動画像の検出能力を示す。
論文 参考訳(メタデータ) (2023-05-22T08:36:35Z) - Adversarially-Aware Robust Object Detector [85.10894272034135]
本稿では,ロバスト検出器 (RobustDet) を提案する。
本モデルは, クリーン画像の検出能力を維持しながら, 傾きを効果的に解き, 検出堅牢性を著しく向上させる。
論文 参考訳(メタデータ) (2022-07-13T13:59:59Z) - CGUA: Context-Guided and Unpaired-Assisted Weakly Supervised Person
Search [54.106662998673514]
本稿では,コンテキストガイドとアンペア支援(CGUA)を弱教師付き人物検索フレームワークとして導入する。
具体的には、クラスタリングプロセスにおけるコンテキスト情報を活用する新しいコンテキストガイドクラスタ(CGC)アルゴリズムを提案する。
本手法は,より多様なラベル付きデータを活用することにより,最先端の教師付き手法に匹敵する,あるいは優れた性能を実現する。
論文 参考訳(メタデータ) (2022-03-27T13:57:30Z) - A Hamiltonian Monte Carlo Method for Probabilistic Adversarial Attack
and Learning [122.49765136434353]
本稿では,HMCAM (Acumulated Momentum) を用いたハミルトニアンモンテカルロ法を提案する。
また, 対数的対数的対数的学習(Contrastive Adversarial Training, CAT)と呼ばれる新たな生成法を提案し, 対数的例の平衡分布にアプローチする。
いくつかの自然画像データセットと実用システムに関する定量的および定性的な解析により、提案アルゴリズムの優位性が確認された。
論文 参考訳(メタデータ) (2020-10-15T16:07:26Z) - Gradient-Induced Co-Saliency Detection [81.54194063218216]
Co-SOD(Co-saliency Detection)は、一般的な唾液前景を関連画像のグループに分割することを目的としている。
本稿では,人間の行動にインスパイアされた,勾配誘導型共分散検出法を提案する。
論文 参考訳(メタデータ) (2020-04-28T08:40:55Z) - Towards Transferable Adversarial Attack against Deep Face Recognition [58.07786010689529]
ディープ畳み込みニューラルネットワーク(DCNN)は敵の例に弱いことが判明した。
転送可能な敵の例は、DCNNの堅牢性を著しく妨げます。
DFANetは畳み込み層で使用されるドロップアウトベースの手法であり,サロゲートモデルの多様性を高めることができる。
クエリなしで4つの商用APIをうまく攻撃できる新しい対向顔ペアを生成します。
論文 参考訳(メタデータ) (2020-04-13T06:44:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。