論文の概要: Adversarial Imaging Pipelines
- arxiv url: http://arxiv.org/abs/2102.03728v1
- Date: Sun, 7 Feb 2021 06:10:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-09 20:19:47.433899
- Title: Adversarial Imaging Pipelines
- Title(参考訳): 対比イメージングパイプライン
- Authors: Buu Phan, Fahim Mannan, Felix Heide
- Abstract要約: 我々は、特定のカメラISPを騙し、他のISPをそのままにしておく攻撃を開発する。
最新の自動車用ハードウェアISPを用いて提案手法を検証する。
- 参考スコア(独自算出の注目度): 28.178120782659878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Adversarial attacks play an essential role in understanding deep neural
network predictions and improving their robustness. Existing attack methods aim
to deceive convolutional neural network (CNN)-based classifiers by manipulating
RGB images that are fed directly to the classifiers. However, these approaches
typically neglect the influence of the camera optics and image processing
pipeline (ISP) that produce the network inputs. ISPs transform RAW measurements
to RGB images and traditionally are assumed to preserve adversarial patterns.
However, these low-level pipelines can, in fact, destroy, introduce or amplify
adversarial patterns that can deceive a downstream detector. As a result,
optimized patterns can become adversarial for the classifier after being
transformed by a certain camera ISP and optic but not for others. In this work,
we examine and develop such an attack that deceives a specific camera ISP while
leaving others intact, using the same down-stream classifier. We frame
camera-specific attacks as a multi-task optimization problem, relying on a
differentiable approximation for the ISP itself. We validate the proposed
method using recent state-of-the-art automotive hardware ISPs, achieving 92%
fooling rate when attacking a specific ISP. We demonstrate physical optics
attacks with 90% fooling rate for a specific camera lenses.
- Abstract(参考訳): 敵対的攻撃は、ディープニューラルネットワークの予測を理解し、その堅牢性を改善する上で重要な役割を果たす。
既存の攻撃方法は、分類器に直接供給されるRGB画像を操作することによって、畳み込みニューラルネットワーク(CNN)ベースの分類器を欺くことを目指している。
しかし、これらのアプローチは通常、ネットワーク入力を生成するカメラ光学および画像処理パイプライン(ISP)の影響を無視します。
ISPはRAW測定をRGB画像に変換し、伝統的に敵のパターンを保存することが想定されている。
しかし、これらの低レベルのパイプラインは、実際に下流の検出器を欺きかねない敵のパターンを破壊、導入、または増幅することができる。
その結果、特定のカメラISPや光学装置に変換された後に、最適化されたパターンが分類器の敵になる可能性があるが、他ではそうではない。
本研究では、同一のダウンストリーム分類器を用いて、特定のカメラISPを欺くような攻撃を他人を無傷にしながら検討・開発する。
カメラ固有の攻撃を、isp自体の微分可能な近似に依存するマルチタスク最適化問題として捉える。
提案手法を最近の自動車用ハードウェアISPを用いて検証し,特定のISPを攻撃した場合に,92%の騙し率を達成した。
我々は、特定のカメラレンズに対して90%の騙し率で物理的光学攻撃を示す。
関連論文リスト
- Chasing Better Deep Image Priors between Over- and Under-parameterization [63.8954152220162]
そこで本研究では,DNN固有の空間性を利用して,LIP(lottery image prior)を新たに検討する。
LIPworksは、コンパクトなモデルサイズでディープデコーダを著しく上回っている。
また、LIPを圧縮センシング画像再構成に拡張し、事前学習したGANジェネレータを前者として使用する。
論文 参考訳(メタデータ) (2024-10-31T17:49:44Z) - Simple Image Signal Processing using Global Context Guidance [56.41827271721955]
ディープラーニングベースのISPは、深層ニューラルネットワークを使用してRAW画像をDSLRライクなRGBイメージに変換することを目指している。
我々は,全RAW画像からグローバルなコンテキスト情報をキャプチャするために,任意のニューラルISPに統合可能な新しいモジュールを提案する。
本モデルでは,多種多様な実スマートフォン画像を用いて,様々なベンチマークで最新の結果が得られる。
論文 参考訳(メタデータ) (2024-04-17T17:11:47Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Deep Nonparametric Convexified Filtering for Computational Photography,
Image Synthesis and Adversarial Defense [1.79487674052027]
本研究の目的は,不完全な画像から実シーンを復元する計算写真のための汎用フレームワークを提供することである。
画像形成の背後にある物理方程式に類似する非パラメトリックディープネットワークで構成されている。
我々は、画像分類深層ネットワークを敵攻撃アルゴリズムに対してリアルタイムに防御する能力を実証的に検証する。
論文 参考訳(メタデータ) (2023-09-13T04:57:12Z) - Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Learning Degradation-Independent Representations for Camera ISP Pipelines [14.195578257521934]
本稿では, 自己教師付き学習ベースライン表現の洗練を通じて, 劣化非依存表現(DiR)を学習するための新しい手法を提案する。
提案手法はドメイン一般化能力に優れ,様々なダウンストリームタスクにおいて最先端の手法よりも優れる。
論文 参考訳(メタデータ) (2023-07-03T05:38:28Z) - Signal Processing for Implicit Neural Representations [80.38097216996164]
Inlicit Neural Representation (INR)は、マルチ層パーセプトロンを介して連続したマルチメディアデータを符号化する。
既存の作業は、その離散化されたインスタンスの処理を通じて、そのような連続的な表現を操作する。
本稿では,INSP-Netと呼ばれる暗黙的ニューラル信号処理ネットワークを提案する。
論文 参考訳(メタデータ) (2022-10-17T06:29:07Z) - Adversarial RAW: Image-Scaling Attack Against Imaging Pipeline [5.036532914308395]
本稿では,ISPパイプラインをターゲットとした画像スケーリングアタックを開発し,構築した対角RAWをアタックイメージに変換する。
そこで我々は,RAW-to-RGB変換をよく学習するプロキシモデルを勾配オーラクルとして提案する,勾配不利用可能なISPパイプラインについて検討する。
論文 参考訳(メタデータ) (2022-06-02T07:35:50Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Blurring Fools the Network -- Adversarial Attacks by Feature Peak
Suppression and Gaussian Blurring [7.540176446791261]
本論文では,データの特徴におけるピーク要素の値を抑制することにより,ピーク抑制(PS)という逆攻撃デモを提案する。
実験結果は、PSとよく設計されたガウスボケは、よく訓練されたターゲットネットワークの分類結果を完全に変更する敵対攻撃を形成することができることを示しています。
論文 参考訳(メタデータ) (2020-12-21T15:47:14Z) - Defending Adversarial Examples via DNN Bottleneck Reinforcement [20.08619981108837]
本稿では,敵対的攻撃に対するディープニューラルネットワーク(DNN)の脆弱性を軽減するための強化手法を提案する。
後者を維持しながら前者を補強することにより、逆らうか否かに関わらず、冗長な情報は、潜在表現から取り除かなければならない。
情報ボトルネックを強化するために,ネットワークの周波数ステアリングを改善するために,マルチスケールの低域目標とマルチスケールの高周波通信を導入する。
論文 参考訳(メタデータ) (2020-08-12T11:02:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。