論文の概要: Improving the Transferability of Targeted Adversarial Examples through
Object-Based Diverse Input
- arxiv url: http://arxiv.org/abs/2203.09123v1
- Date: Thu, 17 Mar 2022 06:57:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-18 13:43:43.877375
- Title: Improving the Transferability of Targeted Adversarial Examples through
Object-Based Diverse Input
- Title(参考訳): オブジェクトベース多元入力による対象逆例の転送性の向上
- Authors: Junyoung Byun, Seungju Cho, Myung-Joon Kwon, Hee-Seon Kim, Changick
Kim
- Abstract要約: 本稿では,3次元オブジェクトに逆画像を引き出すオブジェクトベース多元入力(ODI)手法を提案し,対象クラスに分類するレンダリング画像を誘導する。
私たちのモチベーションは、3Dオブジェクトに印刷された画像に対する人間の優れた認識から来ています。
この方法は、最先端の手法と比較して平均目標攻撃成功率を28.3%から47.0%に引き上げる。
- 参考スコア(独自算出の注目度): 20.435204785716255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The transferability of adversarial examples allows the deception on black-box
models, and transfer-based targeted attacks have attracted a lot of interest
due to their practical applicability. To maximize the transfer success rate,
adversarial examples should avoid overfitting to the source model, and image
augmentation is one of the primary approaches for this. However, prior works
utilize simple image transformations such as resizing, which limits input
diversity. To tackle this limitation, we propose the object-based diverse input
(ODI) method that draws an adversarial image on a 3D object and induces the
rendered image to be classified as the target class. Our motivation comes from
the humans' superior perception of an image printed on a 3D object. If the
image is clear enough, humans can recognize the image content in a variety of
viewing conditions. Likewise, if an adversarial example looks like the target
class to the model, the model should also classify the rendered image of the 3D
object as the target class. The ODI method effectively diversifies the input by
leveraging an ensemble of multiple source objects and randomizing viewing
conditions. In our experimental results on the ImageNet-Compatible dataset,
this method boosts the average targeted attack success rate from 28.3% to 47.0%
compared to the state-of-the-art methods. We also demonstrate the applicability
of the ODI method to adversarial examples on the face verification task and its
superior performance improvement. Our code is available at
https://github.com/dreamflake/ODI.
- Abstract(参考訳): 敵の例の転送性はブラックボックスモデルの欺きを可能にし、転送ベースの標的攻撃は実用的な適用可能性のために多くの関心を集めている。
転送成功率を最大化するために、逆の例はソースモデルへの過剰適合を避けるべきである。
しかし、先行研究は、入力の多様性を制限するリサイズのような単純な画像変換を利用する。
そこで本稿では,3dオブジェクトに逆像を描画し,レンダリング画像を対象クラスに分類するオブジェクトベース多様入力(odi)手法を提案する。
私たちのモチベーションは、3Dオブジェクトに印刷された画像に対する人間の優れた認識から来ています。
画像が十分にクリアであれば、人間は様々な視聴条件で画像の内容を認識することができる。
同様に、逆の例がモデルに対するターゲットクラスに似ている場合、モデルは3dオブジェクトのレンダリングされたイメージをターゲットクラスとして分類する必要がある。
ODI法は、複数のソースオブジェクトのアンサンブルを活用し、視聴条件をランダム化することにより、入力を効果的に多様化する。
ImageNet-Compatible データセットの実験結果では,攻撃成功率の平均は,最先端の手法と比較して28.3%から47.0%に向上した。
また,顔認証タスクにおける逆例に対するODI法の適用性とその性能改善について述べる。
私たちのコードはhttps://github.com/dreamflake/odiで利用可能です。
関連論文リスト
- Real-world Instance-specific Image Goal Navigation: Bridging Domain Gaps via Contrastive Learning [5.904490311837063]
この課題は、移動ロボットが観察する低品質画像と、ユーザが提供した高品質なクエリ画像との間の領域ギャップにある。
クロスクオリティのインスタンスブルウェア適応(CrossIA)は、高画質画像と高画質画像の間に特徴を整合させるために、インスタンスとの対比学習を採用している。
本手法は,タスク成功率をベースラインに比べて最大3倍向上させる。
論文 参考訳(メタデータ) (2024-04-15T10:24:32Z) - Diff-DOPE: Differentiable Deep Object Pose Estimation [29.703385848843414]
Diff-DOPE, 画像入力を行う6-DoFポーズ精細機, オブジェクトの3次元テクスチャモデル, オブジェクトの初期ポーズを紹介する。
この方法は、画像とモデルの投影の間の視覚的エラーを最小限に抑えるために、オブジェクトのポーズを更新するために微分可能なレンダリングを使用する。
このシンプルで効果的なアイデアは、ポーズ推定データセットで最先端の結果を得ることができることを示す。
論文 参考訳(メタデータ) (2023-09-30T18:52:57Z) - MegaPose: 6D Pose Estimation of Novel Objects via Render & Compare [84.80956484848505]
MegaPoseは、トレーニング中に見えない新しいオブジェクトの6Dポーズを推定する方法である。
本稿では,新しいオブジェクトに適用可能なR&Compare戦略に基づく6次元ポーズリファインダを提案する。
第2に,合成レンダリングと同一物体の観察画像間のポーズ誤差をリファインダで補正できるか否かを分類するために訓練されたネットワークを利用する,粗いポーズ推定のための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-12-13T19:30:03Z) - Towards Understanding and Boosting Adversarial Transferability from a
Distribution Perspective [80.02256726279451]
近年,ディープニューラルネットワーク(DNN)に対する敵対的攻撃が注目されている。
本稿では,画像の分布を操作することで,敵の例を再現する新しい手法を提案する。
本手法は,攻撃の伝達性を大幅に向上させ,未目標シナリオと目標シナリオの両方において最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-10-09T09:58:51Z) - 3D-Augmented Contrastive Knowledge Distillation for Image-based Object
Pose Estimation [4.415086501328683]
トレーニングプロセスでは3D形状が活用され、テストは依然として純粋に画像ベースである。
マルチモーダルモデルから画像ベースモデルへ3次元拡張画像表現を効果的に転送する新しいコントラスト型知識蒸留フレームワークを提案する。
我々は,既存のカテゴリに依存しない画像ベース手法と比較して,最先端の成果を大きなマージンで報告した。
論文 参考訳(メタデータ) (2022-06-02T16:46:18Z) - NeuralReshaper: Single-image Human-body Retouching with Deep Neural
Networks [50.40798258968408]
本稿では,深部生成ネットワークを用いた単一画像における人体の意味的再構成手法であるNeuralReshaperを提案する。
われわれのアプローチは、まずパラメトリックな3次元人間モデルと元の人間の画像とを適合させるフィッティング・セイン・リフォーム・パイプラインに従う。
ペアデータが存在しないデータ不足に対処するために,ネットワークをトレーニングするための新たな自己教師型戦略を導入する。
論文 参考訳(メタデータ) (2022-03-20T09:02:13Z) - Beyond ImageNet Attack: Towards Crafting Adversarial Examples for
Black-box Domains [80.11169390071869]
敵対的な例は、転送可能な性質のため、ディープニューラルネットワークに深刻な脅威をもたらしている。
ブラックボックス領域への転送可能性を調べるために,Beyond ImageNet Attack (BIA)を提案する。
提案手法は, 最先端手法を最大7.71%(粗粒領域)と25.91%(細粒領域)で平均的に上回っている。
論文 参考訳(メタデータ) (2022-01-27T14:04:27Z) - Object-aware Contrastive Learning for Debiased Scene Representation [74.30741492814327]
オブジェクトを自己教師型でローカライズする,オブジェクト認識型コントラスト学習フレームワークを開発した。
また、コントラCAM、オブジェクト認識型乱作、背景混合に基づく2つのデータ拡張を導入し、コントラスト型自己教師型学習における文脈バイアスと背景バイアスを低減した。
論文 参考訳(メタデータ) (2021-07-30T19:24:07Z) - Collaboration among Image and Object Level Features for Image
Colourisation [25.60139324272782]
画像のカラー化は不適切な問題であり、入力データムに存在するコンテキストとオブジェクトインスタンスに依存する複数の正しいソリューションがある。
従来のアプローチは、強力なユーザーインタラクションを必要とするか、画像レベル(コンテキスト)機能を学ぶために畳み込みニューラルネットワーク(CNN)の能力を利用して、この問題を攻撃しました。
コンボリューションによって得られる画像レベルの特徴とカプセルによってキャプチャされるオブジェクトレベルの特徴を分離する,UCapsNetという単一のネットワークを提案する。
そして,異なる層間の接続をスキップすることで,これらの分離要因間の協調を強制し,高品質で再現可能な画像彩色を実現する。
論文 参考訳(メタデータ) (2021-01-19T11:48:12Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z) - AdvJND: Generating Adversarial Examples with Just Noticeable Difference [3.638233924421642]
例に小さな摂動を加えると、優れたパフォーマンスモデルが工芸品の例を誤って分類する。
我々のAdvJNDアルゴリズムが生成した逆例は、元の入力に類似した分布を生成する。
論文 参考訳(メタデータ) (2020-02-01T09:55:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。