論文の概要: Imperceptible CMOS camera dazzle for adversarial attacks on deep neural
networks
- arxiv url: http://arxiv.org/abs/2311.16118v1
- Date: Sun, 22 Oct 2023 09:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-15 15:24:58.046319
- Title: Imperceptible CMOS camera dazzle for adversarial attacks on deep neural
networks
- Title(参考訳): 深層ニューラルネットワークの敵攻撃に対する知覚不可能なCMOSカメラダッズ
- Authors: Zvi Stein and Adrian Stern
- Abstract要約: 我々は、光源を用いてローリングシャッターでCMOSカメラをダッズする可視光対向攻撃を提案する。
本稿では、被写体に印加されたディープニューラルネットワークを騙すのに十分なジャムを施しながら、攻撃光源を完全に見えなくするために必要な写真条件を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Despite the outstanding performance of deep neural networks, they are
vulnerable to adversarial attacks. While there are many invisible attacks in
the digital domain, most physical world adversarial attacks are visible. Here
we present an invisible optical adversarial attack that uses a light source to
dazzle a CMOS camera with a rolling shutter. We present the photopic conditions
required to keep the attacking light source completely invisible while
sufficiently jamming the captured image so that a deep neural network applied
to it is deceived.
- Abstract(参考訳): ディープニューラルネットワークの優れた性能にもかかわらず、敵の攻撃に弱い。
デジタルドメインには多くの目に見えない攻撃があるが、ほとんどの物理的世界敵攻撃は見えない。
ここでは、光源を用いてローリングシャッターでCMOSカメラをダッズする可視光対向攻撃を示す。
撮影された画像を十分に妨害しながら、攻撃する光源を完全に視認するために必要なフォトピクチャ条件を提示し、ディープニューラルネットワークを欺く。
関連論文リスト
- Adversarial attacks on an optical neural network [2.302001830524133]
光学ニューラルネットワーク(ONN)に対する敵対的攻撃は、これまでほとんど考えられなかった。
対応する敵攻撃方式を初めて提案する。
その結果,光学機械学習システムにおいては,敵攻撃も重要な問題であることがわかった。
論文 参考訳(メタデータ) (2022-04-29T14:45:28Z) - Shadows can be Dangerous: Stealthy and Effective Physical-world
Adversarial Attack by Natural Phenomenon [79.33449311057088]
我々は、非常に一般的な自然現象であるシャドーによって摂動が生じる新しい種類の光対角運動例について研究する。
我々は,シミュレーション環境と実環境の両方において,この新たな攻撃の有効性を広く評価した。
論文 参考訳(メタデータ) (2022-03-08T02:40:18Z) - Preemptive Image Robustification for Protecting Users against
Man-in-the-Middle Adversarial Attacks [16.017328736786922]
Man-in-the-Middleの敵対者は、ウェブユーザーがオンラインでアップロードした画像を悪意を持って傍受し、妨害する。
この種の攻撃は、単純なパフォーマンス劣化の上に厳しい倫理的懸念を引き起こす可能性がある。
本研究では, 対向摂動に頑健な自然画像近傍の点を求める2段階最適化アルゴリズムを考案した。
論文 参考訳(メタデータ) (2021-12-10T16:06:03Z) - Moir\'e Attack (MA): A New Potential Risk of Screen Photos [15.498304057398078]
私たちは、ディープニューラルネットワークに対する未確認のセキュリティ脅威を引き起こす可能性のある、デジタル画像処理、モワール効果に特別な現象を見つけました。
そこで本研究では,デジタルデバイスの発射過程を模倣して,映像に付加する物理世界モイアパターンを生成するモイア攻撃(MA)を提案する。
提案したディジタルモイア攻撃(MA)は、攻撃者がDNNを高い成功率で改ざんするための完璧なカモフラージュである。
論文 参考訳(メタデータ) (2021-10-20T09:19:04Z) - Signal Injection Attacks against CCD Image Sensors [20.892354746682223]
我々は,CCDイメージセンサが捉えた画像情報を操作するために,電磁エマニュエーションをどのように利用できるかを示す。
以上の結果から,インジェクトされた歪みが視覚に基づく自律的知能システムを破壊する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-19T19:05:28Z) - The Feasibility and Inevitability of Stealth Attacks [63.14766152741211]
我々は、攻撃者が汎用人工知能システムにおける決定を制御できる新しい敵の摂動について研究する。
敵対的なデータ修正とは対照的に、ここで考慮する攻撃メカニズムには、AIシステム自体の変更が含まれる。
論文 参考訳(メタデータ) (2021-06-26T10:50:07Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Online Alternate Generator against Adversarial Attacks [144.45529828523408]
ディープラーニングモデルは、実際の画像に準知覚可能なノイズを加えることによって合成される敵の例に非常に敏感である。
対象ネットワークのパラメータをアクセスしたり変更したりする必要のない,ポータブルな防御手法であるオンライン代替ジェネレータを提案する。
提案手法は,入力画像のスクラッチから別の画像をオンライン合成することで,対向雑音を除去・破壊する代わりに機能する。
論文 参考訳(メタデータ) (2020-09-17T07:11:16Z) - AdvFoolGen: Creating Persistent Troubles for Deep Classifiers [17.709146615433458]
本稿では,自然画像と同じ特徴空間から攻撃画像を生成するAdvFoolGenというブラックボックス攻撃を提案する。
我々は、最先端の防衛技術に直面する攻撃の有効性と堅牢性を実証する。
論文 参考訳(メタデータ) (2020-07-20T21:27:41Z) - Perceptual Adversarial Robustness: Defense Against Unseen Threat Models [58.47179090632039]
敵対的堅牢性の鍵となる課題は、人間の知覚を正確に数学的に特徴づけることの欠如である。
ニューラル・パーセプチュアル・脅威モデルの下で、我々は新しいパーセプチュアル・アタックとディフェンスを開発する。
NPTMは非常に広範であるため、知覚的攻撃に対する知覚的適応訓練(PAT)は、他の多くの種類の敵対的攻撃に対して堅牢性を与える。
論文 参考訳(メタデータ) (2020-06-22T22:40:46Z) - Deflecting Adversarial Attacks [94.85315681223702]
我々は、攻撃者が攻撃対象クラスに似た入力を生成することによって、敵攻撃を「防御」するこのサイクルを終わらせる新しいアプローチを提案する。
本稿ではまず,3つの検出機構を組み合わせたカプセルネットワークに基づくより強力な防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-18T06:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。