論文の概要: Human-Producible Adversarial Examples
- arxiv url: http://arxiv.org/abs/2310.00438v1
- Date: Sat, 30 Sep 2023 17:22:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-05 04:20:13.022286
- Title: Human-Producible Adversarial Examples
- Title(参考訳): 人為的な逆転例
- Authors: David Khachaturov, Yue Gao, Ilia Shumailov, Robert Mullins, Ross
Anderson, Kassem Fawaz
- Abstract要約: 我々は,マーカーペンほど複雑ではない実世界に対して,人為的に生成可能な敵の例を生成する手法を初めて提示する。
わずか4ドルのラインを引けば、YOLOベースのモデルを54.8%のケースで破壊でき、これを9ドルに増やすと、テストされたケースの81.8%が破壊される。
我々は,デジタルとアナログの両方の世界において,我々のシステムを徹底的に評価し,我々のタグが訓練されていない人間に応用できることを実証した。
- 参考スコア(独自算出の注目度): 24.44559596065277
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual adversarial examples have so far been restricted to pixel-level image
manipulations in the digital world, or have required sophisticated equipment
such as 2D or 3D printers to be produced in the physical real world. We present
the first ever method of generating human-producible adversarial examples for
the real world that requires nothing more complicated than a marker pen. We
call them $\textbf{adversarial tags}$. First, building on top of differential
rendering, we demonstrate that it is possible to build potent adversarial
examples with just lines. We find that by drawing just $4$ lines we can disrupt
a YOLO-based model in $54.8\%$ of cases; increasing this to $9$ lines disrupts
$81.8\%$ of the cases tested. Next, we devise an improved method for line
placement to be invariant to human drawing error. We evaluate our system
thoroughly in both digital and analogue worlds and demonstrate that our tags
can be applied by untrained humans. We demonstrate the effectiveness of our
method for producing real-world adversarial examples by conducting a user study
where participants were asked to draw over printed images using digital
equivalents as guides. We further evaluate the effectiveness of both targeted
and untargeted attacks, and discuss various trade-offs and method limitations,
as well as the practical and ethical implications of our work. The source code
will be released publicly.
- Abstract(参考訳): これまでは、デジタル世界ではピクセルレベルの画像操作に制限されていたり、2Dや3Dプリンターのような高度な機器を物理的に制作する必要があった。
我々は,マーカーペンほど複雑ではない実世界に対して,人為的に生成可能な敵の例を生成する手法を初めて提示する。
これを $\textbf{adversarial tags}$ と呼ぶ。
まず、差分レンダリングの上に構築することで、直列で強力な逆例を構築することができることを示す。
わずか4ドルのラインを引けば、YOLOベースのモデルを54.8 %のケースで破壊でき、これを9 ドルに増やすと、テストされたケースの81.8 %のケースが破壊される。
次に,線配置を人間の描画誤差に不変にするための改良手法を提案する。
デジタルとアナログの両方の世界でシステムを徹底的に評価し,訓練を受けていない人間がタグを適用できることを実証する。
本手法は,デジタル同義語をガイドとして印刷画像の描画を依頼したユーザ調査を行い,実世界の対向例作成手法の有効性を実証する。
我々はさらに,標的攻撃と非標的攻撃の両方の有効性を評価し,様々なトレードオフと方法の限界,および我々の仕事の実用的および倫理的影響について論じる。
ソースコードは公開される予定だ。
関連論文リスト
- Imperceptible Adversarial Examples in the Physical World [10.981325924844167]
我々は、ストレートスルー推定器(STE、別名BPDA)を用いて、物理世界における敵対例を知覚できないものにする。
我々のSTEのレンダリング拡張は、物理的世界における知覚できない敵パッチも可能にします。
我々の知る限りでは、これは物理的世界の小さな規範に縛られた、知覚できない敵の例を示す最初の作品である。
論文 参考訳(メタデータ) (2024-11-25T18:02:23Z) - Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - Watermark-embedded Adversarial Examples for Copyright Protection against Diffusion Models [10.993094140231667]
拡散モデル(Diffusion Models)は、未承認の作品を模倣し、著作権問題を引き起こす可能性があるという懸念がある。
本稿では,個人用透かしを敵対例の生成に組み込む新しい枠組みを提案する。
この作品は、DMベースの模倣から著作権を保護するためのシンプルだが強力な方法を提供する。
論文 参考訳(メタデータ) (2024-04-15T01:27:07Z) - One-to-many Reconstruction of 3D Geometry of cultural Artifacts using a
synthetically trained Generative Model [8.762635528934084]
提案手法は1枚のスケッチから様々な詳細な3D表現を生成する。
トレーニング用の合成データにのみ依存しており、少数のトレーニング例であっても適用可能である。
論文 参考訳(メタデータ) (2024-02-13T09:13:30Z) - Adversarial Example Does Good: Preventing Painting Imitation from
Diffusion Models via Adversarial Examples [32.701307512642835]
拡散モデル(DM)はAI for Artの波を加速させるが、新たな著作権侵害を引き起こす。
本稿では,人造美術品の保護にDMの逆例を活用することを提案する。
我々の方法は、DMベースのAI-for-Artアプリケーションを備えた侵害者に対して、人間のアーティストが著作権を保護する強力なツールとなり得る。
論文 参考訳(メタデータ) (2023-02-09T11:36:39Z) - Reverse engineering adversarial attacks with fingerprints from
adversarial examples [0.0]
逆例は典型的には、良性入力に追加される摂動を最適化する攻撃アルゴリズムによって生成される。
私たちは、これらの摂動を分類するために、ディープニューラルネットワークを訓練する"火で戦う"アプローチを取っています。
摂動をトレーニングしたResNet50モデルで99.4%の精度を実現した。
論文 参考訳(メタデータ) (2023-01-31T18:59:37Z) - Drawing out of Distribution with Neuro-Symbolic Generative Models [49.79371715591122]
ドローイング・アウト・オブ・ディストリクト(英: Drawing out of Distribution)は、ストローク・ベース・ドローイングの神経象徴的生成モデルである。
DooDは画像を直接操作するが、監視や高価なテストタイム推論は必要ない。
我々は、データとタスクをまたいだ一般化能力について、DooDを評価した。
論文 参考訳(メタデータ) (2022-06-03T21:40:22Z) - Adversarial Examples Make Strong Poisons [55.63469396785909]
従来は訓練済みのモデルに対する攻撃を意図していた敵の例は,近年の毒殺に特化して設計された手法よりも,データ中毒に有効であることを示す。
また,本手法は,データセットのセキュアなリリースにおいて,既存の中毒法よりも極めて効果的である。
論文 参考訳(メタデータ) (2021-06-21T01:57:14Z) - CMUA-Watermark: A Cross-Model Universal Adversarial Watermark for
Combating Deepfakes [74.18502861399591]
ディープフェイクの悪意ある応用(すなわち、テクノロジーはターゲットの顔や顔の特徴を生成できる)は、我々の社会に大きな脅威をもたらしている。
本稿では,深層圏モデルに対する普遍的敵攻撃法を提案し,CMUA-Watermark(CMUA-Watermark)を作成した。
実験の結果,提案したCMUA-Watermarkはディープフェイクモデルによって生成された偽の顔画像を効果的に歪めることができることがわかった。
論文 参考訳(メタデータ) (2021-05-23T07:28:36Z) - Exploring Adversarial Robustness of Multi-Sensor Perception Systems in
Self Driving [87.3492357041748]
本稿では,敵物体をホスト車両の上に配置することで,マルチセンサ検出の実用的感受性を示す。
実験の結果, 攻撃が成功した原因は主に画像の特徴が損なわれやすいことが判明した。
よりロバストなマルチモーダル知覚システムに向けて,特徴分断を伴う敵対的訓練が,このような攻撃に対するロバスト性を大幅に高めることを示す。
論文 参考訳(メタデータ) (2021-01-17T21:15:34Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。