論文の概要: Invisible Perturbations: Physical Adversarial Examples Exploiting the
Rolling Shutter Effect
- arxiv url: http://arxiv.org/abs/2011.13375v3
- Date: Sun, 18 Apr 2021 16:21:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:37:09.368223
- Title: Invisible Perturbations: Physical Adversarial Examples Exploiting the
Rolling Shutter Effect
- Title(参考訳): 不可視摂動:転がりシャッター効果を爆発させる物理的逆転例
- Authors: Athena Sayles, Ashish Hooda, Mohit Gupta, Rahul Chatterjee, Earlence
Fernandes
- Abstract要約: 私たちは初めて、人間の目に見えない物理的敵の例を生成します。
我々は、攻撃者がシーンを逆向きに照らし、ターゲットの誤分類を引き起こす変調された信号を作る方法を実証する。
我々はLEDで様々なシミュレーションと物理実験を行い、目標攻撃率を最大84%まで示す。
- 参考スコア(独自算出の注目度): 16.876798038844445
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Physical adversarial examples for camera-based computer vision have so far
been achieved through visible artifacts -- a sticker on a Stop sign, colorful
borders around eyeglasses or a 3D printed object with a colorful texture. An
implicit assumption here is that the perturbations must be visible so that a
camera can sense them. By contrast, we contribute a procedure to generate, for
the first time, physical adversarial examples that are invisible to human eyes.
Rather than modifying the victim object with visible artifacts, we modify light
that illuminates the object. We demonstrate how an attacker can craft a
modulated light signal that adversarially illuminates a scene and causes
targeted misclassifications on a state-of-the-art ImageNet deep learning model.
Concretely, we exploit the radiometric rolling shutter effect in commodity
cameras to create precise striping patterns that appear on images. To human
eyes, it appears like the object is illuminated, but the camera creates an
image with stripes that will cause ML models to output the attacker-desired
classification. We conduct a range of simulation and physical experiments with
LEDs, demonstrating targeted attack rates up to 84%.
- Abstract(参考訳): カメラベースのコンピュータビジョンの物理的な敵対的な例はこれまで、目に見えるアーティファクト(ストップサインのステッカー、眼鏡の周りのカラフルな境界、カラフルなテクスチャの3dプリントオブジェクト)によって達成されてきた。
ここでの暗黙の仮定は、摂動がカメラがそれを感知できるように見えなければならないということである。
対照的に、私たちは初めて人間の目に見えない物理的な敵の例を生成する手順に貢献します。
犠牲者のオブジェクトを目に見えるアーティファクトで修正するのではなく、オブジェクトを照らす光を修正します。
我々は、攻撃者がシーンを逆向きに照らし、最先端のImageNet深層学習モデルでターゲットの誤分類を引き起こす変調信号を作る方法を実証する。
具体的には,商品カメラのローリングシャッター効果を利用して,画像に現れる正確なストリッピングパターンを作成する。
人間の目には、物体が照らされているように見えるが、カメラはストライプの画像を生成し、MLモデルが攻撃者が望んだ分類を出力する。
我々は,ledを用いた様々なシミュレーションと物理実験を行い,最大84%の標的攻撃率を示した。
関連論文リスト
- Transparency Attacks: How Imperceptible Image Layers Can Fool AI
Perception [0.0]
本稿では,認識不能な画像層が視覚モデルを任意のラベル代入とキャプションに結合する場合のアルゴリズム的脆弱性について検討する。
我々は、人間の目が知覚するものをAIが誤解釈するきっかけとなる、ステルス透明性を導入するための画像前処理手法について検討する。
ステルス透明性は、顔認識と監視の回避、デジタル透かし、コンテンツフィルタリング、データセットのキュレーション、自動車とドローンの自律性、法医学的証拠の改ざん、小売商品の誤分類など、視覚システムを確立した。
論文 参考訳(メタデータ) (2024-01-29T00:52:01Z) - Relightable Neural Actor with Intrinsic Decomposition and Pose Control [80.06094206522668]
提案するRelightable Neural Actorは、ポーズ駆動型ニューラルヒューマンモデルを学ぶための新しいビデオベース手法である。
トレーニングのためには、既知のが静的な照明条件下での人間のマルチビュー記録のみを必要とする。
実世界のシナリオにおける我々のアプローチを評価するため、屋内と屋外の異なる光条件下で記録された4つのアイデンティティを持つ新しいデータセットを収集した。
論文 参考訳(メタデータ) (2023-12-18T14:30:13Z) - Why Don't You Clean Your Glasses? Perception Attacks with Dynamic
Optical Perturbations [17.761200546223442]
敵の攻撃を物理的世界に適応させることが、攻撃者にとって望ましい。
EvilEyeは、ディスプレイを透過的に利用し、ダイナミックな物理的逆転の例を生成する、中間者認識攻撃である。
論文 参考訳(メタデータ) (2023-07-24T21:16:38Z) - AdvRain: Adversarial Raindrops to Attack Camera-based Smart Vision
Systems [5.476763798688862]
物理的敵攻撃として知られる「印刷された敵攻撃」は、認識モデルを誤解させることに成功した。
我々は,同じクラスの全てのオブジェクトに対して,カメラベースの認識システムを騙すことができるカメラベースの敵攻撃を提案する。
ImageNetとResnet34では、VGG19では平均モデルの精度が45%以上、40%以上低下しています。
論文 参考訳(メタデータ) (2023-03-02T15:14:46Z) - Totems: Physical Objects for Verifying Visual Integrity [68.55682676677046]
画像法医学における新たなアプローチとして,トーテムと呼ばれる物理的屈折物体を現場に配置し,そのシーンから撮影した写真を保護する。
トーテムは光線を曲げてリダイレクトし、1枚の画像内に複数の歪んだシーンのビューを提供する。
ディフェンダーは、この歪んだトーテムピクセルを使用して、画像が操作されたかどうかを検出することができる。
論文 参考訳(メタデータ) (2022-09-26T21:19:37Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Attack to Fool and Explain Deep Networks [59.97135687719244]
対人摂動における人為的意味のパターンの証拠を提供することによって、私たちは逆転する。
我々の主な貢献は、その後視覚モデルを理解するためのツールに変換される、新しい実用的対人攻撃である。
論文 参考訳(メタデータ) (2021-06-20T03:07:36Z) - They See Me Rollin': Inherent Vulnerability of the Rolling Shutter in
CMOS Image Sensors [21.5487020124302]
カメラの電子回転シャッターを利用して微細な画像破壊を注入することができる。
敵がレーザーを変調して、最先端の検出器で認識される物体の75%を隠蔽する方法を示す。
以上の結果から,ローリングシャッター攻撃は視覚に基づくインテリジェントシステムの性能と信頼性を大幅に低下させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-01-25T11:14:25Z) - Relighting Images in the Wild with a Self-Supervised Siamese
Auto-Encoder [62.580345486483886]
本研究では,野生の単一ビュー画像の自己教師付きリライティング手法を提案する。
この方法は、イメージを2つの別々のエンコーディングに分解するオートエンコーダに基づいている。
Youtube 8MやCelebAなどの大規模データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2020-12-11T16:08:50Z) - Face Forgery Detection by 3D Decomposition [72.22610063489248]
顔画像は、基礎となる3次元幾何学と照明環境の介入の産物とみなす。
顔画像を3次元形状、共通テクスチャ、アイデンティティテクスチャ、周囲光、そして直接光に切り離すことで、悪魔は直接光とアイデンティティテクスチャの中に横たわる。
直接光と識別テクスチャを組み合わせた顔のディテールを,微妙な偽造パターンを検出する手がかりとして活用することを提案する。
論文 参考訳(メタデータ) (2020-11-19T09:25:44Z) - GhostImage: Remote Perception Attacks against Camera-based Image
Classification Systems [6.637193297008101]
視覚に基づくオブジェクト分類システムでは、センサーが環境を認識し、機械学習を使用して意思決定のためにオブジェクトを検出し分類する。
我々は、攻撃者が突発的なオブジェクトを作成したり、既存のオブジェクトを変更したりすることを可能にするために、認識ドメインをリモートかつ控えめに利用する方法を実証する。
論文 参考訳(メタデータ) (2020-01-21T21:58:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。